Home
last modified time | relevance | path

Searched refs:xmm8 (Results 1 – 25 of 25) sorted by relevance

/f-stack/freebsd/crypto/openssl/amd64/
H A Dsha1-mb-x86_64.S2509 pxor %xmm8,%xmm8
2623 pshufd $27,%xmm8,%xmm8
2910 pshufd $27,%xmm8,%xmm8
3043 vpor %xmm9,%xmm8,%xmm8
3066 vpor %xmm9,%xmm8,%xmm8
3089 vpor %xmm9,%xmm8,%xmm8
3112 vpor %xmm9,%xmm8,%xmm8
3135 vpor %xmm9,%xmm8,%xmm8
3158 vpor %xmm9,%xmm8,%xmm8
3181 vpor %xmm9,%xmm8,%xmm8
[all …]
H A Daesni-gcm-x86_64.S54 vpxor %xmm4,%xmm8,%xmm8
65 vpxor 16+8(%rsp),%xmm8,%xmm8
129 vpxor 112+8(%rsp),%xmm8,%xmm8
313 vpxor %xmm4,%xmm8,%xmm8
355 vpshufb %xmm0,%xmm8,%xmm8
397 vpshufb (%r11),%xmm8,%xmm8
581 vpshufb %xmm0,%xmm8,%xmm8
705 vxorps %xmm14,%xmm8,%xmm8
721 vxorps %xmm14,%xmm8,%xmm8
750 vpxor %xmm2,%xmm8,%xmm8
[all …]
H A Dghash-x86_64.S1450 vpxor %xmm15,%xmm8,%xmm8
1471 vpxor %xmm15,%xmm8,%xmm8
1496 vpxor %xmm15,%xmm8,%xmm8
1534 vpxor %xmm15,%xmm8,%xmm8
1613 vpxor %xmm15,%xmm8,%xmm8
1666 vpxor %xmm15,%xmm8,%xmm8
1681 vpxor %xmm15,%xmm8,%xmm8
1696 vpxor %xmm15,%xmm8,%xmm8
1711 vpxor %xmm15,%xmm8,%xmm8
1726 vpxor %xmm15,%xmm8,%xmm8
[all …]
H A Daesni-mb-x86_64.S714 vpxor %xmm12,%xmm8,%xmm8
732 vaesenc %xmm1,%xmm8,%xmm8
752 vaesenc %xmm0,%xmm8,%xmm8
773 vaesenc %xmm1,%xmm8,%xmm8
794 vaesenc %xmm0,%xmm8,%xmm8
815 vaesenc %xmm1,%xmm8,%xmm8
835 vaesenc %xmm0,%xmm8,%xmm8
855 vaesenc %xmm1,%xmm8,%xmm8
875 vaesenc %xmm0,%xmm8,%xmm8
980 vpxor %xmm12,%xmm8,%xmm8
[all …]
H A Daesni-sha1-x86_64.S120 pxor %xmm4,%xmm8
142 paddd %xmm8,%xmm8
155 por %xmm12,%xmm8
162 pxor %xmm3,%xmm8
608 pslld $2,%xmm8
1495 vpxor %xmm2,%xmm8,%xmm8
1554 vpxor %xmm3,%xmm8,%xmm8
1616 vpxor %xmm4,%xmm8,%xmm8
1675 vpxor %xmm5,%xmm8,%xmm8
2750 pshufd $27,%xmm8,%xmm8
[all …]
H A Daesni-x86_64.S735 pxor %xmm8,%xmm8
775 pxor %xmm8,%xmm8
922 pxor %xmm8,%xmm8
1021 pxor %xmm8,%xmm8
1581 pxor %xmm8,%xmm8
2052 pxor %xmm8,%xmm8
2559 pxor %xmm8,%xmm8
2769 pxor %xmm8,%xmm8
3218 pxor %xmm8,%xmm8
3841 pxor %xmm8,%xmm8
[all …]
H A Dpoly1305-x86_64.S698 vpsrlq $30,%xmm8,%xmm8
700 vpand %xmm15,%xmm8,%xmm8
830 vpmuludq %xmm8,%xmm4,%xmm8
908 vpmuludq %xmm0,%xmm8,%xmm8
925 vpmuludq %xmm2,%xmm8,%xmm8
955 vpsrlq $30,%xmm8,%xmm8
957 vpand %xmm15,%xmm8,%xmm8
1008 vpaddq %xmm3,%xmm8,%xmm8
1135 vpmuludq %xmm4,%xmm8,%xmm8
1154 vpmuludq %xmm0,%xmm8,%xmm8
[all …]
H A Drsaz-x86_64.S842 movd %r9d,%xmm8
846 pshufd $0,%xmm8,%xmm8
873 pand %xmm0,%xmm8
886 por %xmm10,%xmm8
893 por %xmm9,%xmm8
895 por %xmm9,%xmm8
985 por %xmm9,%xmm8
987 por %xmm9,%xmm8
1147 por %xmm9,%xmm8
1149 por %xmm9,%xmm8
[all …]
H A Dsha256-mb-x86_64.S3424 vpaddd %xmm5,%xmm8,%xmm8
3632 vpxor %xmm1,%xmm8,%xmm8
3653 vpaddd %xmm5,%xmm8,%xmm8
3654 vpaddd %xmm7,%xmm8,%xmm8
3873 vpaddd %xmm5,%xmm8,%xmm8
4085 vpxor %xmm1,%xmm8,%xmm8
4106 vpaddd %xmm5,%xmm8,%xmm8
4107 vpaddd %xmm7,%xmm8,%xmm8
4691 vpxor %xmm1,%xmm8,%xmm8
5292 vpxor %xmm1,%xmm8,%xmm8
[all …]
H A Dchacha-x86_64.S497 pxor %xmm8,%xmm3
515 pxor %xmm8,%xmm3
539 pxor %xmm8,%xmm3
1256 vpaddd %xmm0,%xmm8,%xmm8
1280 vpaddd %xmm8,%xmm0,%xmm8
1304 vpaddd %xmm1,%xmm8,%xmm8
1328 vpaddd %xmm8,%xmm1,%xmm8
1355 vpaddd 64(%rsp),%xmm8,%xmm8
1365 vpunpckhdq %xmm9,%xmm8,%xmm8
1370 vpunpckhqdq %xmm10,%xmm8,%xmm8
[all …]
H A Dsha512-x86_64.S1912 vpsrlq $7,%xmm8,%xmm8
1923 vpxor %xmm9,%xmm8,%xmm8
1981 vpsrlq $7,%xmm8,%xmm8
1992 vpxor %xmm9,%xmm8,%xmm8
2050 vpsrlq $7,%xmm8,%xmm8
2061 vpxor %xmm9,%xmm8,%xmm8
2119 vpsrlq $7,%xmm8,%xmm8
2188 vpsrlq $7,%xmm8,%xmm8
2257 vpsrlq $7,%xmm8,%xmm8
2326 vpsrlq $7,%xmm8,%xmm8
[all …]
H A Dsha1-x86_64.S1500 psrldq $4,%xmm8
1526 psrld $31,%xmm8
1536 por %xmm8,%xmm4
1594 psrld $30,%xmm8
1662 pslld $2,%xmm8
1683 psrldq $4,%xmm8
1709 psrld $31,%xmm8
2689 vpxor %xmm2,%xmm8,%xmm8
2744 vpxor %xmm3,%xmm8,%xmm8
2800 vpxor %xmm4,%xmm8,%xmm8
[all …]
H A Daesni-sha256-x86_64.S706 vpor %xmm11,%xmm8,%xmm8
730 vpor %xmm11,%xmm8,%xmm8
1169 vpor %xmm11,%xmm8,%xmm8
1196 vpor %xmm11,%xmm8,%xmm8
1900 vpor %xmm11,%xmm8,%xmm8
1926 vpor %xmm11,%xmm8,%xmm8
2365 vpor %xmm11,%xmm8,%xmm8
2392 vpor %xmm11,%xmm8,%xmm8
3112 vpor %xmm11,%xmm8,%xmm8
3125 vpor %xmm11,%xmm8,%xmm8
[all …]
H A Dx86_64cpuid.S286 pxor %xmm8,%xmm8
H A Dvpaes-x86_64.S230 movdqa .Lk_rcon(%rip),%xmm8
H A Decp_nistz256-x86_64.S4868 movdqa %xmm0,%xmm8
4874 movdqa %xmm8,%xmm15
4875 paddd %xmm0,%xmm8
4944 movdqa .LOne(%rip),%xmm8
4952 movdqa %xmm8,%xmm0
4957 movdqa %xmm8,%xmm15
4958 paddd %xmm0,%xmm8
H A Dsha256-x86_64.S1789 movdqa %xmm7,%xmm8
1958 movdqa %xmm8,%xmm7
3137 vmovdqa K256+512+32(%rip),%xmm8
3245 vpshufb %xmm8,%xmm6,%xmm6
3380 vpshufb %xmm8,%xmm6,%xmm6
3515 vpshufb %xmm8,%xmm6,%xmm6
3650 vpshufb %xmm8,%xmm6,%xmm6
/f-stack/freebsd/contrib/openzfs/module/icp/asm-x86_64/modes/
H A Dgcm_pclmulqdq.S185 movdqu %xmm6, %xmm8
189 psrld $31, %xmm8
191 pslldq $4, %xmm8
195 por %xmm8, %xmm6
204 movdqu %xmm3, %xmm8
207 pslld $30, %xmm8 // packed right shift shifting << 30
209 pxor %xmm8, %xmm7 // xor the shifted versions
211 movdqu %xmm7, %xmm8
213 psrldq $4, %xmm8
229 pxor %xmm8, %xmm2
H A Dghash-x86_64.S308 vpxor %xmm15,%xmm8,%xmm8
329 vpxor %xmm15,%xmm8,%xmm8
354 vpxor %xmm15,%xmm8,%xmm8
392 vpxor %xmm15,%xmm8,%xmm8
471 vpxor %xmm15,%xmm8,%xmm8
524 vpxor %xmm15,%xmm8,%xmm8
539 vpxor %xmm15,%xmm8,%xmm8
554 vpxor %xmm15,%xmm8,%xmm8
569 vpxor %xmm15,%xmm8,%xmm8
584 vpxor %xmm15,%xmm8,%xmm8
[all …]
H A Daesni-gcm-x86_64.S104 vpxor %xmm4,%xmm8,%xmm8
115 vpxor 16+8(%rsp),%xmm8,%xmm8
179 vpxor 112+8(%rsp),%xmm8,%xmm8
364 vpxor %xmm4,%xmm8,%xmm8
420 vpxor %xmm4,%xmm8,%xmm8
692 vpxor %xmm4,%xmm8,%xmm8
738 vpshufb %xmm0,%xmm8,%xmm8
980 vpshufb %xmm0,%xmm8,%xmm8
1116 vxorps %xmm14,%xmm8,%xmm8
1161 vpxor %xmm2,%xmm8,%xmm8
[all …]
/f-stack/freebsd/contrib/libsodium/src/libsodium/crypto_scalarmult/curve25519/sandy2x/
H A Dladder_base.S48 vpxor %xmm8,%xmm8,%xmm8
148 vpxor %xmm15,%xmm8,%xmm8
224 vpsubq %xmm9,%xmm8,%xmm8
233 vpaddq %xmm7,%xmm8,%xmm8
265 vpaddq %xmm10,%xmm8,%xmm8
284 vpaddq %xmm3,%xmm8,%xmm8
310 vpaddq %xmm10,%xmm8,%xmm8
329 vpaddq %xmm3,%xmm8,%xmm8
374 vpaddq %xmm3,%xmm8,%xmm8
440 vpaddq %xmm9,%xmm8,%xmm8
[all …]
H A Dladder.S53 vpxor %xmm8,%xmm8,%xmm8
197 vpxor %xmm15,%xmm8,%xmm8
273 vpsubq %xmm9,%xmm8,%xmm8
282 vpaddq %xmm7,%xmm8,%xmm8
314 vpaddq %xmm10,%xmm8,%xmm8
333 vpaddq %xmm3,%xmm8,%xmm8
378 vpaddq %xmm3,%xmm8,%xmm8
423 vpaddq %xmm3,%xmm8,%xmm8
489 vpaddq %xmm9,%xmm8,%xmm8
503 vpaddq %xmm3,%xmm8,%xmm8
[all …]
/f-stack/freebsd/contrib/libsodium/src/libsodium/crypto_stream/salsa20/xmm6/
H A Dsalsa20_xmm6-asm.S283 pxor %xmm0,%xmm8
294 paddd %xmm8,%xmm0
343 pxor %xmm1,%xmm8
345 pxor %xmm2,%xmm8
510 movd %xmm8,%r9
514 pshufd $0x39,%xmm8,%xmm8
526 movd %xmm8,%r9
530 pshufd $0x39,%xmm8,%xmm8
542 movd %xmm8,%r9
546 pshufd $0x39,%xmm8,%xmm8
[all …]
/f-stack/dpdk/lib/librte_eal/x86/include/
H A Drte_memcpy.h593xmm8 = _mm_loadu_si128((const __m128i *)((const uint8_t *)src - offset + 8 * 16)); …
602 …_mm_storeu_si128((__m128i *)((uint8_t *)dst + 7 * 16), _mm_alignr_epi8(xmm8, xmm7, offset)); …
666 __m128i xmm0, xmm1, xmm2, xmm3, xmm4, xmm5, xmm6, xmm7, xmm8; in rte_memcpy_generic() local
/f-stack/freebsd/crypto/openssl/aarch64/
H A Dvpaes-armv8.S124 ## Preserves %xmm6 - %xmm8 so you get some local vectors
814 ## Adds rcon from low byte of %xmm8, then rotates %xmm8 for