-rw-r--r-- 17959 lib25519-20241004/crypto_nP/montgomery25519/amd64-avx512ifma-hey5l-maax/mladder.S raw
#include "crypto_asm_hidden.h" // linker define mladder // linker use hh_p1 // linker use hh_p2 // linker use hh_p3 // linker use sub_p1 // linker use sub_p2 // linker use sub_p3 // linker use hh_xor // linker use swap_c // linker use swap_mask // linker use vec19 // linker use vec608 // linker use vecmask52 // linker use vecmask47 /* Assembly for Montgomery ladder. */ #include "consts_namespace.h" .p2align 5 ASM_HIDDEN _CRYPTO_SHARED_NAMESPACE(mladder) .globl _CRYPTO_SHARED_NAMESPACE(mladder) ASM_HIDDEN CRYPTO_SHARED_NAMESPACE(mladder) .globl CRYPTO_SHARED_NAMESPACE(mladder) _CRYPTO_SHARED_NAMESPACE(mladder): CRYPTO_SHARED_NAMESPACE(mladder): movq %rsp,%r11 andq $-32,%rsp subq $64,%rsp movq %r11,0(%rsp) movq %r12,8(%rsp) movq %r13,16(%rsp) movq %r14,24(%rsp) movq %r15,32(%rsp) movq %rbx,40(%rsp) movq %rbp,48(%rsp) // load <X2,Z2,X3,Z3> vmovdqa 0(%rdi),%ymm10 vmovdqa 32(%rdi),%ymm11 vmovdqa 64(%rdi),%ymm12 vmovdqa 96(%rdi),%ymm13 vmovdqa 128(%rdi),%ymm14 movq $31,%r15 movq $6,%rcx movb $0,%r8b movq %rdx,%rax .L1: addq %r15,%rax movb 0(%rax),%r14b movq %rdx,%rax .L2: movb %r14b,%bl shrb %cl,%bl andb $1,%bl movb %bl,%r9b xorb %r8b,%bl movb %r9b,%r8b // <X2,Z2,X3,Z3> ← Swap(<X2,Z2,X3,Z3>,b) movzbl %bl,%ebx imul $4,%ebx,%ebx movl %ebx,56(%rsp) vpbroadcastd 56(%rsp),%ymm7 vpaddd swap_c(%rip),%ymm7,%ymm7 vpand swap_mask(%rip),%ymm7,%ymm7 vpermd %ymm10,%ymm7,%ymm10 vpermd %ymm11,%ymm7,%ymm11 vpermd %ymm12,%ymm7,%ymm12 vpermd %ymm13,%ymm7,%ymm13 vpermd %ymm14,%ymm7,%ymm14 // <T1,T2,T3,T4> ← H-H(<X2,Z2,X3,Z3>) vpshufd $68,%ymm10,%ymm5 vpshufd $238,%ymm10,%ymm6 vpaddq hh_p1(%rip),%ymm5,%ymm5 vpxor hh_xor(%rip),%ymm6,%ymm6 vpaddq %ymm5,%ymm6,%ymm0 vpshufd $68,%ymm11,%ymm5 vpshufd $238,%ymm11,%ymm6 vpaddq hh_p2(%rip),%ymm5,%ymm5 vpxor hh_xor(%rip),%ymm6,%ymm6 vpaddq %ymm5,%ymm6,%ymm1 vpshufd $68,%ymm12,%ymm5 vpshufd $238,%ymm12,%ymm6 vpaddq hh_p2(%rip),%ymm5,%ymm5 vpxor hh_xor(%rip),%ymm6,%ymm6 vpaddq %ymm5,%ymm6,%ymm2 vpshufd $68,%ymm13,%ymm5 vpshufd $238,%ymm13,%ymm6 vpaddq hh_p2(%rip),%ymm5,%ymm5 vpxor hh_xor(%rip),%ymm6,%ymm6 vpaddq %ymm5,%ymm6,%ymm3 vpshufd $68,%ymm14,%ymm5 vpshufd $238,%ymm14,%ymm6 vpaddq hh_p3(%rip),%ymm5,%ymm5 vpxor hh_xor(%rip),%ymm6,%ymm6 vpaddq %ymm5,%ymm6,%ymm4 vpsrlq $52,%ymm3,%ymm10 vpaddq %ymm10,%ymm4,%ymm4 vpandq vecmask52(%rip),%ymm3,%ymm3 vpsrlq $47,%ymm4,%ymm10 vpandq vecmask47(%rip),%ymm4,%ymm4 vpmadd52luq vec19(%rip),%ymm10,%ymm0 vpsrlq $52,%ymm0,%ymm10 vpaddq %ymm10,%ymm1,%ymm1 vpandq vecmask52(%rip),%ymm0,%ymm0 vpsrlq $52,%ymm1,%ymm10 vpaddq %ymm10,%ymm2,%ymm2 vpandq vecmask52(%rip),%ymm1,%ymm1 vpsrlq $52,%ymm2,%ymm10 vpaddq %ymm10,%ymm3,%ymm3 vpandq vecmask52(%rip),%ymm2,%ymm2 vpsrlq $52,%ymm3,%ymm10 vpaddq %ymm10,%ymm4,%ymm4 vpandq vecmask52(%rip),%ymm3,%ymm3 // <T1,T2,T2,T1> ← Dup(<T1,T2,T3,T4>) vpermq $20,%ymm0,%ymm5 vpermq $20,%ymm1,%ymm6 vpermq $20,%ymm2,%ymm7 vpermq $20,%ymm3,%ymm8 vpermq $20,%ymm4,%ymm9 // <T5,T6,T7,T8> ← Mul(<T1,T2,T3,T4>,<T1,T2,T2,T1>) vpxorq %ymm10,%ymm10,%ymm10 vpxorq %ymm11,%ymm11,%ymm11 vpxorq %ymm12,%ymm12,%ymm12 vpxorq %ymm13,%ymm13,%ymm13 vpxorq %ymm14,%ymm14,%ymm14 vpxorq %ymm15,%ymm15,%ymm15 vpxorq %ymm16,%ymm16,%ymm16 vpxorq %ymm17,%ymm17,%ymm17 vpxorq %ymm18,%ymm18,%ymm18 vpxorq %ymm19,%ymm19,%ymm19 vpxorq %ymm25,%ymm25,%ymm25 vpxorq %ymm26,%ymm26,%ymm26 vpxorq %ymm27,%ymm27,%ymm27 vpxorq %ymm28,%ymm28,%ymm28 vpxorq %ymm29,%ymm29,%ymm29 vpxorq %ymm30,%ymm30,%ymm30 vpxorq %ymm31,%ymm31,%ymm31 vpmadd52luq %ymm0,%ymm5,%ymm10 vpmadd52huq %ymm0,%ymm5,%ymm11 vpmadd52luq %ymm0,%ymm6,%ymm25 vpmadd52huq %ymm0,%ymm6,%ymm12 vpmadd52luq %ymm1,%ymm5,%ymm25 vpmadd52huq %ymm1,%ymm5,%ymm12 vpaddq %ymm25,%ymm11,%ymm11 vpmadd52luq %ymm0,%ymm7,%ymm26 vpmadd52huq %ymm0,%ymm7,%ymm13 vpmadd52luq %ymm1,%ymm6,%ymm26 vpmadd52huq %ymm1,%ymm6,%ymm13 vpmadd52luq %ymm2,%ymm5,%ymm26 vpmadd52huq %ymm2,%ymm5,%ymm13 vpaddq %ymm26,%ymm12,%ymm12 vpmadd52luq %ymm0,%ymm8,%ymm27 vpmadd52huq %ymm0,%ymm8,%ymm14 vpmadd52luq %ymm1,%ymm7,%ymm27 vpmadd52huq %ymm1,%ymm7,%ymm14 vpmadd52luq %ymm2,%ymm6,%ymm27 vpmadd52huq %ymm2,%ymm6,%ymm14 vpmadd52luq %ymm3,%ymm5,%ymm27 vpmadd52huq %ymm3,%ymm5,%ymm14 vpaddq %ymm27,%ymm13,%ymm13 vpmadd52luq %ymm0,%ymm9,%ymm28 vpmadd52huq %ymm0,%ymm9,%ymm15 vpmadd52luq %ymm1,%ymm8,%ymm28 vpmadd52huq %ymm1,%ymm8,%ymm15 vpmadd52luq %ymm2,%ymm7,%ymm28 vpmadd52huq %ymm2,%ymm7,%ymm15 vpmadd52luq %ymm3,%ymm6,%ymm28 vpmadd52huq %ymm3,%ymm6,%ymm15 vpmadd52luq %ymm4,%ymm5,%ymm28 vpmadd52huq %ymm4,%ymm5,%ymm15 vpaddq %ymm28,%ymm14,%ymm14 vpmadd52luq %ymm1,%ymm9,%ymm29 vpmadd52huq %ymm1,%ymm9,%ymm16 vpmadd52luq %ymm2,%ymm8,%ymm29 vpmadd52huq %ymm2,%ymm8,%ymm16 vpmadd52luq %ymm3,%ymm7,%ymm29 vpmadd52huq %ymm3,%ymm7,%ymm16 vpmadd52luq %ymm4,%ymm6,%ymm29 vpmadd52huq %ymm4,%ymm6,%ymm16 vpaddq %ymm29,%ymm15,%ymm15 vpmadd52luq %ymm2,%ymm9,%ymm30 vpmadd52huq %ymm2,%ymm9,%ymm17 vpmadd52luq %ymm3,%ymm8,%ymm30 vpmadd52huq %ymm3,%ymm8,%ymm17 vpmadd52luq %ymm4,%ymm7,%ymm30 vpmadd52huq %ymm4,%ymm7,%ymm17 vpaddq %ymm30,%ymm16,%ymm16 vpmadd52luq %ymm3,%ymm9,%ymm31 vpmadd52huq %ymm3,%ymm9,%ymm18 vpmadd52luq %ymm4,%ymm8,%ymm31 vpmadd52huq %ymm4,%ymm8,%ymm18 vpaddq %ymm31,%ymm17,%ymm17 vpmadd52luq %ymm4,%ymm9,%ymm18 vpmadd52huq %ymm4,%ymm9,%ymm19 vpsrlq $52,%ymm15,%ymm22 vpaddq %ymm22,%ymm16,%ymm16 vpandq vecmask52(%rip),%ymm15,%ymm15 vpmadd52luq vec608(%rip),%ymm15,%ymm10 vpmadd52huq vec608(%rip),%ymm15,%ymm11 vpsrlq $52,%ymm16,%ymm22 vpaddq %ymm22,%ymm17,%ymm17 vpandq vecmask52(%rip),%ymm16,%ymm16 vpmadd52luq vec608(%rip),%ymm16,%ymm11 vpmadd52huq vec608(%rip),%ymm16,%ymm12 vpsrlq $52,%ymm17,%ymm22 vpaddq %ymm22,%ymm18,%ymm18 vpandq vecmask52(%rip),%ymm17,%ymm17 vpmadd52luq vec608(%rip),%ymm17,%ymm12 vpmadd52huq vec608(%rip),%ymm17,%ymm13 vpsrlq $52,%ymm18,%ymm22 vpaddq %ymm22,%ymm19,%ymm19 vpandq vecmask52(%rip),%ymm18,%ymm18 vpmadd52luq vec608(%rip),%ymm18,%ymm13 vpmadd52huq vec608(%rip),%ymm18,%ymm14 vpmadd52luq vec608(%rip),%ymm19,%ymm14 // <T9,T10,T11,T12> ← H-H(<T5,T6,T7,T8>) vpshufd $68,%ymm10,%ymm1 vpshufd $238,%ymm10,%ymm3 vpaddq hh_p1(%rip),%ymm1,%ymm1 vpxor hh_xor(%rip),%ymm3,%ymm3 vpaddq %ymm1,%ymm3,%ymm5 vpshufd $68,%ymm11,%ymm1 vpshufd $238,%ymm11,%ymm3 vpaddq hh_p2(%rip),%ymm1,%ymm1 vpxor hh_xor(%rip),%ymm3,%ymm3 vpaddq %ymm1,%ymm3,%ymm6 vpshufd $68,%ymm12,%ymm1 vpshufd $238,%ymm12,%ymm3 vpaddq hh_p2(%rip),%ymm1,%ymm1 vpxor hh_xor(%rip),%ymm3,%ymm3 vpaddq %ymm1,%ymm3,%ymm7 vpshufd $68,%ymm13,%ymm1 vpshufd $238,%ymm13,%ymm3 vpaddq hh_p2(%rip),%ymm1,%ymm1 vpxor hh_xor(%rip),%ymm3,%ymm3 vpaddq %ymm1,%ymm3,%ymm8 vpshufd $68,%ymm14,%ymm1 vpshufd $238,%ymm14,%ymm3 vpaddq hh_p3(%rip),%ymm1,%ymm1 vpxor hh_xor(%rip),%ymm3,%ymm3 vpaddq %ymm1,%ymm3,%ymm9 vpsrlq $52,%ymm8,%ymm21 vpaddq %ymm21,%ymm9,%ymm9 vpandq vecmask52(%rip),%ymm8,%ymm8 vpsrlq $47,%ymm9,%ymm21 vpandq vecmask47(%rip),%ymm9,%ymm9 vpmadd52luq vec19(%rip),%ymm21,%ymm5 vpsrlq $52,%ymm5,%ymm21 vpaddq %ymm21,%ymm6,%ymm6 vpandq vecmask52(%rip),%ymm5,%ymm5 vpsrlq $52,%ymm6,%ymm21 vpaddq %ymm21,%ymm7,%ymm7 vpandq vecmask52(%rip),%ymm6,%ymm6 vpsrlq $52,%ymm7,%ymm21 vpaddq %ymm21,%ymm8,%ymm8 vpandq vecmask52(%rip),%ymm7,%ymm7 vpsrlq $52,%ymm8,%ymm21 vpaddq %ymm21,%ymm9,%ymm9 vpandq vecmask52(%rip),%ymm8,%ymm8 // <T10,T9,T12,T11> ← Shuffle(<T9,T10,T11,T12>) vpshufd $78,%ymm5,%ymm0 vpshufd $78,%ymm6,%ymm1 vpshufd $78,%ymm7,%ymm2 vpshufd $78,%ymm8,%ymm3 vpshufd $78,%ymm9,%ymm4 // <T10,A,1,X1> ← Blend(<0,A,1,X1>,<T10,T9,T12,T11>,1000) vpblendd $252,0(%rsi),%ymm0,%ymm0 vpblendd $252,32(%rsi),%ymm1,%ymm1 vpblendd $252,64(%rsi),%ymm2,%ymm2 vpblendd $252,96(%rsi),%ymm3,%ymm3 vpblendd $252,128(%rsi),%ymm4,%ymm4 // <T13,T14,T15,T16> ← Sqr(<T9,T10,T11,T12>) vpxorq %ymm22,%ymm22,%ymm22 vpxorq %ymm23,%ymm23,%ymm23 vpxorq %ymm24,%ymm24,%ymm24 vpxorq %ymm25,%ymm25,%ymm25 vpxorq %ymm26,%ymm26,%ymm26 vpxorq %ymm27,%ymm27,%ymm27 vpxorq %ymm28,%ymm28,%ymm28 vpxorq %ymm29,%ymm29,%ymm29 vpxorq %ymm30,%ymm30,%ymm30 vpxorq %ymm31,%ymm31,%ymm31 vpmadd52luq %ymm5,%ymm5,%ymm22 vpmadd52huq %ymm5,%ymm5,%ymm23 vpxorq %ymm21,%ymm21,%ymm21 vpmadd52luq %ymm5,%ymm6,%ymm21 vpmadd52huq %ymm5,%ymm6,%ymm24 vpaddq %ymm21,%ymm21,%ymm21 vpaddq %ymm21,%ymm23,%ymm23 vpaddq %ymm24,%ymm24,%ymm24 vpxorq %ymm21,%ymm21,%ymm21 vpmadd52luq %ymm5,%ymm7,%ymm21 vpmadd52huq %ymm5,%ymm7,%ymm25 vpaddq %ymm21,%ymm21,%ymm21 vpaddq %ymm21,%ymm24,%ymm24 vpaddq %ymm25,%ymm25,%ymm25 vpmadd52luq %ymm6,%ymm6,%ymm24 vpmadd52huq %ymm6,%ymm6,%ymm25 vpxorq %ymm21,%ymm21,%ymm21 vpmadd52luq %ymm5,%ymm8,%ymm21 vpmadd52huq %ymm5,%ymm8,%ymm26 vpmadd52luq %ymm6,%ymm7,%ymm21 vpmadd52huq %ymm6,%ymm7,%ymm26 vpaddq %ymm21,%ymm21,%ymm21 vpaddq %ymm21,%ymm25,%ymm25 vpaddq %ymm26,%ymm26,%ymm26 vpxorq %ymm21,%ymm21,%ymm21 vpmadd52luq %ymm5,%ymm9,%ymm21 vpmadd52huq %ymm5,%ymm9,%ymm27 vpmadd52luq %ymm6,%ymm8,%ymm21 vpmadd52huq %ymm6,%ymm8,%ymm27 vpaddq %ymm21,%ymm21,%ymm21 vpaddq %ymm21,%ymm26,%ymm26 vpaddq %ymm27,%ymm27,%ymm27 vpmadd52luq %ymm7,%ymm7,%ymm26 vpmadd52huq %ymm7,%ymm7,%ymm27 vpxorq %ymm21,%ymm21,%ymm21 vpmadd52luq %ymm6,%ymm9,%ymm21 vpmadd52huq %ymm6,%ymm9,%ymm28 vpmadd52luq %ymm7,%ymm8,%ymm21 vpmadd52huq %ymm7,%ymm8,%ymm28 vpaddq %ymm21,%ymm21,%ymm21 vpaddq %ymm21,%ymm27,%ymm27 vpaddq %ymm28,%ymm28,%ymm28 vpxorq %ymm21,%ymm21,%ymm21 vpmadd52luq %ymm7,%ymm9,%ymm21 vpmadd52huq %ymm7,%ymm9,%ymm29 vpaddq %ymm21,%ymm21,%ymm21 vpaddq %ymm21,%ymm28,%ymm28 vpaddq %ymm29,%ymm29,%ymm29 vpmadd52luq %ymm8,%ymm8,%ymm28 vpmadd52huq %ymm8,%ymm8,%ymm29 vpxorq %ymm21,%ymm21,%ymm21 vpmadd52luq %ymm8,%ymm9,%ymm21 vpmadd52huq %ymm8,%ymm9,%ymm30 vpaddq %ymm21,%ymm21,%ymm21 vpaddq %ymm21,%ymm29,%ymm29 vpaddq %ymm30,%ymm30,%ymm30 vpmadd52luq %ymm9,%ymm9,%ymm30 vpmadd52huq %ymm9,%ymm9,%ymm31 vpsrlq $52,%ymm27,%ymm21 vpaddq %ymm21,%ymm28,%ymm28 vpandq vecmask52(%rip),%ymm27,%ymm27 vpmadd52luq vec608(%rip),%ymm27,%ymm22 vpmadd52huq vec608(%rip),%ymm27,%ymm23 vpsrlq $52,%ymm28,%ymm21 vpaddq %ymm21,%ymm29,%ymm29 vpandq vecmask52(%rip),%ymm28,%ymm28 vpmadd52luq vec608(%rip),%ymm28,%ymm23 vpmadd52huq vec608(%rip),%ymm28,%ymm24 vpsrlq $52,%ymm29,%ymm21 vpaddq %ymm21,%ymm30,%ymm30 vpandq vecmask52(%rip),%ymm29,%ymm29 vpmadd52luq vec608(%rip),%ymm29,%ymm24 vpmadd52huq vec608(%rip),%ymm29,%ymm25 vpsrlq $52,%ymm30,%ymm21 vpaddq %ymm21,%ymm31,%ymm31 vpandq vecmask52(%rip),%ymm30,%ymm30 vpmadd52luq vec608(%rip),%ymm30,%ymm25 vpmadd52huq vec608(%rip),%ymm30,%ymm26 vpmadd52luq vec608(%rip),%ymm31,%ymm26 vpsrlq $52,%ymm25,%ymm21 vpaddq %ymm21,%ymm26,%ymm26 vpandq vecmask52(%rip),%ymm25,%ymm25 vpsrlq $47,%ymm26,%ymm21 vpandq vecmask47(%rip),%ymm26,%ymm26 vpmadd52luq vec19(%rip),%ymm21,%ymm22 vpsrlq $52,%ymm22,%ymm21 vpaddq %ymm21,%ymm23,%ymm23 vpandq vecmask52(%rip),%ymm22,%ymm10 vpsrlq $52,%ymm23,%ymm21 vpaddq %ymm21,%ymm24,%ymm24 vpandq vecmask52(%rip),%ymm23,%ymm11 vpsrlq $52,%ymm24,%ymm21 vpaddq %ymm21,%ymm25,%ymm25 vpandq vecmask52(%rip),%ymm24,%ymm12 vpsrlq $52,%ymm25,%ymm21 vpaddq %ymm21,%ymm26,%ymm14 vpandq vecmask52(%rip),%ymm25,%ymm13 // <T14,T13,T16,T15> ← Shuffle(<T13,T14,T15,T16>) vpshufd $78,%ymm10,%ymm15 vpshufd $78,%ymm11,%ymm16 vpshufd $78,%ymm12,%ymm17 vpshufd $78,%ymm13,%ymm18 vpshufd $78,%ymm14,%ymm19 // <T9,T14,T15,T16> ← Blend(<T9,T10,T11,T12>,<T13,T14,T15,T16>,0111) vpblendd $3,%ymm5,%ymm10,%ymm5 vpblendd $3,%ymm6,%ymm11,%ymm6 vpblendd $3,%ymm7,%ymm12,%ymm7 vpblendd $3,%ymm8,%ymm13,%ymm8 vpblendd $3,%ymm9,%ymm14,%ymm9 // <X2,*,*,*> ← Sub(<T13,T14,T15,T16>,<T14,T13,T16,T15>) vpaddq sub_p1(%rip),%ymm10,%ymm10 vpaddq sub_p2(%rip),%ymm11,%ymm11 vpaddq sub_p2(%rip),%ymm12,%ymm12 vpaddq sub_p2(%rip),%ymm13,%ymm13 vpaddq sub_p3(%rip),%ymm14,%ymm14 vpsubq %ymm15,%ymm10,%ymm10 vpsubq %ymm16,%ymm11,%ymm11 vpsubq %ymm17,%ymm12,%ymm12 vpsubq %ymm18,%ymm13,%ymm13 vpsubq %ymm19,%ymm14,%ymm14 // <T17,T18,X3,Z3> ← Mul(<T10,A,1,X1>,<T9,T14,T15,T16>) vpxorq %ymm20,%ymm20,%ymm20 vpxorq %ymm21,%ymm21,%ymm21 vpxorq %ymm22,%ymm22,%ymm22 vpxorq %ymm23,%ymm23,%ymm23 vpxorq %ymm24,%ymm24,%ymm24 vpxorq %ymm15,%ymm15,%ymm15 vpxorq %ymm16,%ymm16,%ymm16 vpxorq %ymm17,%ymm17,%ymm17 vpxorq %ymm18,%ymm18,%ymm18 vpxorq %ymm19,%ymm19,%ymm19 vpxorq %ymm25,%ymm25,%ymm25 vpxorq %ymm26,%ymm26,%ymm26 vpxorq %ymm27,%ymm27,%ymm27 vpxorq %ymm28,%ymm28,%ymm28 vpxorq %ymm29,%ymm29,%ymm29 vpxorq %ymm30,%ymm30,%ymm30 vpxorq %ymm31,%ymm31,%ymm31 vpmadd52luq %ymm0,%ymm5,%ymm20 vpmadd52huq %ymm0,%ymm5,%ymm21 vpmadd52luq %ymm0,%ymm6,%ymm25 vpmadd52huq %ymm0,%ymm6,%ymm22 vpmadd52luq %ymm1,%ymm5,%ymm25 vpmadd52huq %ymm1,%ymm5,%ymm22 vpaddq %ymm25,%ymm21,%ymm21 vpmadd52luq %ymm0,%ymm7,%ymm26 vpmadd52huq %ymm0,%ymm7,%ymm23 vpmadd52luq %ymm1,%ymm6,%ymm26 vpmadd52huq %ymm1,%ymm6,%ymm23 vpmadd52luq %ymm2,%ymm5,%ymm26 vpmadd52huq %ymm2,%ymm5,%ymm23 vpaddq %ymm26,%ymm22,%ymm22 vpmadd52luq %ymm0,%ymm8,%ymm27 vpmadd52huq %ymm0,%ymm8,%ymm24 vpmadd52luq %ymm1,%ymm7,%ymm27 vpmadd52huq %ymm1,%ymm7,%ymm24 vpmadd52luq %ymm2,%ymm6,%ymm27 vpmadd52huq %ymm2,%ymm6,%ymm24 vpmadd52luq %ymm3,%ymm5,%ymm27 vpmadd52huq %ymm3,%ymm5,%ymm24 vpaddq %ymm27,%ymm23,%ymm23 vpmadd52luq %ymm0,%ymm9,%ymm28 vpmadd52huq %ymm0,%ymm9,%ymm15 vpmadd52luq %ymm1,%ymm8,%ymm28 vpmadd52huq %ymm1,%ymm8,%ymm15 vpmadd52luq %ymm2,%ymm7,%ymm28 vpmadd52huq %ymm2,%ymm7,%ymm15 vpmadd52luq %ymm3,%ymm6,%ymm28 vpmadd52huq %ymm3,%ymm6,%ymm15 vpmadd52luq %ymm4,%ymm5,%ymm28 vpmadd52huq %ymm4,%ymm5,%ymm15 vpaddq %ymm28,%ymm24,%ymm24 vpmadd52luq %ymm1,%ymm9,%ymm29 vpmadd52huq %ymm1,%ymm9,%ymm16 vpmadd52luq %ymm2,%ymm8,%ymm29 vpmadd52huq %ymm2,%ymm8,%ymm16 vpmadd52luq %ymm3,%ymm7,%ymm29 vpmadd52huq %ymm3,%ymm7,%ymm16 vpmadd52luq %ymm4,%ymm6,%ymm29 vpmadd52huq %ymm4,%ymm6,%ymm16 vpaddq %ymm29,%ymm15,%ymm15 vpmadd52luq %ymm2,%ymm9,%ymm30 vpmadd52huq %ymm2,%ymm9,%ymm17 vpmadd52luq %ymm3,%ymm8,%ymm30 vpmadd52huq %ymm3,%ymm8,%ymm17 vpmadd52luq %ymm4,%ymm7,%ymm30 vpmadd52huq %ymm4,%ymm7,%ymm17 vpaddq %ymm30,%ymm16,%ymm16 vpmadd52luq %ymm3,%ymm9,%ymm31 vpmadd52huq %ymm3,%ymm9,%ymm18 vpmadd52luq %ymm4,%ymm8,%ymm31 vpmadd52huq %ymm4,%ymm8,%ymm18 vpaddq %ymm31,%ymm17,%ymm17 vpmadd52luq %ymm4,%ymm9,%ymm18 vpmadd52huq %ymm4,%ymm9,%ymm19 vpsrlq $52,%ymm15,%ymm31 vpaddq %ymm31,%ymm16,%ymm16 vpandq vecmask52(%rip),%ymm15,%ymm15 vpmadd52luq vec608(%rip),%ymm15,%ymm20 vpmadd52huq vec608(%rip),%ymm15,%ymm21 vpsrlq $52,%ymm16,%ymm31 vpaddq %ymm31,%ymm17,%ymm17 vpandq vecmask52(%rip),%ymm16,%ymm16 vpmadd52luq vec608(%rip),%ymm16,%ymm21 vpmadd52huq vec608(%rip),%ymm16,%ymm22 vpsrlq $52,%ymm17,%ymm31 vpaddq %ymm31,%ymm18,%ymm18 vpandq vecmask52(%rip),%ymm17,%ymm17 vpmadd52luq vec608(%rip),%ymm17,%ymm22 vpmadd52huq vec608(%rip),%ymm17,%ymm23 vpsrlq $52,%ymm18,%ymm31 vpaddq %ymm31,%ymm19,%ymm19 vpandq vecmask52(%rip),%ymm18,%ymm18 vpmadd52luq vec608(%rip),%ymm18,%ymm23 vpmadd52huq vec608(%rip),%ymm18,%ymm24 vpmadd52luq vec608(%rip),%ymm19,%ymm24 // <T19,*,*,*> ← Add(<T17,T18,X3,Z3>,<T17,T18,X3,Z3>) vpaddq %ymm20,%ymm20,%ymm0 vpaddq %ymm21,%ymm21,%ymm1 vpaddq %ymm22,%ymm22,%ymm2 vpaddq %ymm23,%ymm23,%ymm3 vpaddq %ymm24,%ymm24,%ymm4 // <*,T19,*,*> ← Shuffle(<T19,*,*,*>) vpshufd $78,%ymm0,%ymm0 vpshufd $78,%ymm1,%ymm1 vpshufd $78,%ymm2,%ymm2 vpshufd $78,%ymm3,%ymm3 vpshufd $78,%ymm4,%ymm4 // <*,Z2,*,*> ← Add(<T17,T18,X3,Z3>,<*,T19,*,*>) vpaddq %ymm20,%ymm0,%ymm0 vpaddq %ymm21,%ymm1,%ymm1 vpaddq %ymm22,%ymm2,%ymm2 vpaddq %ymm23,%ymm3,%ymm3 vpaddq %ymm24,%ymm4,%ymm4 // <X2,Z2,*,*> ← Blend(<X2,*,*,*>,<*,Z2,*,*>,0100) vpblendd $3,%ymm10,%ymm0,%ymm0 vpblendd $3,%ymm11,%ymm1,%ymm1 vpblendd $3,%ymm12,%ymm2,%ymm2 vpblendd $3,%ymm13,%ymm3,%ymm3 vpblendd $3,%ymm14,%ymm4,%ymm4 // <X2,Z2,X3,Z3> ← Blend(<X2,Z2,*,*>,<T17,T18,X3,Z3>,0011) movl $15,%ebx kmovw %ebx,%k1 vpblendmd %ymm0,%ymm20,%ymm10{%k1} vpblendmd %ymm1,%ymm21,%ymm11{%k1} vpblendmd %ymm2,%ymm22,%ymm12{%k1} vpblendmd %ymm3,%ymm23,%ymm13{%k1} vpblendmd %ymm4,%ymm24,%ymm14{%k1} subb $1,%cl cmpb $0,%cl jge .L2 movb $7,%cl subq $1,%r15 cmpq $0,%r15 jge .L1 vpsrlq $52,%ymm13,%ymm22 vpaddq %ymm22,%ymm14,%ymm14 vpandq vecmask52(%rip),%ymm13,%ymm13 vpsrlq $47,%ymm14,%ymm22 vpandq vecmask47(%rip),%ymm14,%ymm14 vpmadd52luq vec19(%rip),%ymm22,%ymm10 vpsrlq $52,%ymm10,%ymm22 vpaddq %ymm22,%ymm11,%ymm11 vpandq vecmask52(%rip),%ymm10,%ymm10 vpsrlq $52,%ymm11,%ymm22 vpaddq %ymm22,%ymm12,%ymm12 vpandq vecmask52(%rip),%ymm11,%ymm11 vpsrlq $52,%ymm12,%ymm22 vpaddq %ymm22,%ymm13,%ymm13 vpandq vecmask52(%rip),%ymm12,%ymm12 vpsrlq $52,%ymm13,%ymm22 vpaddq %ymm22,%ymm14,%ymm14 vpandq vecmask52(%rip),%ymm13,%ymm13 // store <X2,Z2,X3,Z3> vmovdqa %ymm10,0(%rdi) vmovdqa %ymm11,32(%rdi) vmovdqa %ymm12,64(%rdi) vmovdqa %ymm13,96(%rdi) vmovdqa %ymm14,128(%rdi) movq 0(%rsp), %r11 movq 8(%rsp), %r12 movq 16(%rsp),%r13 movq 24(%rsp),%r14 movq 32(%rsp),%r15 movq 40(%rsp),%rbx movq 48(%rsp),%rbp movq %r11,%rsp ret .section .note.GNU-stack,"",@progbits