274504f5e6
Signed-off-by: David S. Miller <davem@davemloft.net>
564 lines
14 KiB
ArmAsm
564 lines
14 KiB
ArmAsm
#include <linux/linkage.h>
|
|
#include <asm/visasm.h>
|
|
|
|
#include "opcodes.h"
|
|
|
|
#define CAMELLIA_6ROUNDS(KEY_BASE, I0, I1) \
|
|
CAMELLIA_F(KEY_BASE + 0, I1, I0, I1) \
|
|
CAMELLIA_F(KEY_BASE + 2, I0, I1, I0) \
|
|
CAMELLIA_F(KEY_BASE + 4, I1, I0, I1) \
|
|
CAMELLIA_F(KEY_BASE + 6, I0, I1, I0) \
|
|
CAMELLIA_F(KEY_BASE + 8, I1, I0, I1) \
|
|
CAMELLIA_F(KEY_BASE + 10, I0, I1, I0)
|
|
|
|
#define CAMELLIA_6ROUNDS_FL_FLI(KEY_BASE, I0, I1) \
|
|
CAMELLIA_6ROUNDS(KEY_BASE, I0, I1) \
|
|
CAMELLIA_FL(KEY_BASE + 12, I0, I0) \
|
|
CAMELLIA_FLI(KEY_BASE + 14, I1, I1)
|
|
|
|
.data
|
|
|
|
.align 8
|
|
SIGMA: .xword 0xA09E667F3BCC908B
|
|
.xword 0xB67AE8584CAA73B2
|
|
.xword 0xC6EF372FE94F82BE
|
|
.xword 0x54FF53A5F1D36F1C
|
|
.xword 0x10E527FADE682D1D
|
|
.xword 0xB05688C2B3E6C1FD
|
|
|
|
.text
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_key_expand)
|
|
/* %o0=in_key, %o1=encrypt_key, %o2=key_len, %o3=decrypt_key */
|
|
VISEntry
|
|
ld [%o0 + 0x00], %f0 ! i0, k[0]
|
|
ld [%o0 + 0x04], %f1 ! i1, k[1]
|
|
ld [%o0 + 0x08], %f2 ! i2, k[2]
|
|
ld [%o0 + 0x0c], %f3 ! i3, k[3]
|
|
std %f0, [%o1 + 0x00] ! k[0, 1]
|
|
fsrc2 %f0, %f28
|
|
std %f2, [%o1 + 0x08] ! k[2, 3]
|
|
cmp %o2, 16
|
|
be 10f
|
|
fsrc2 %f2, %f30
|
|
|
|
ld [%o0 + 0x10], %f0
|
|
ld [%o0 + 0x14], %f1
|
|
std %f0, [%o1 + 0x20] ! k[8, 9]
|
|
cmp %o2, 24
|
|
fone %f10
|
|
be,a 1f
|
|
fxor %f10, %f0, %f2
|
|
ld [%o0 + 0x18], %f2
|
|
ld [%o0 + 0x1c], %f3
|
|
1:
|
|
std %f2, [%o1 + 0x28] ! k[10, 11]
|
|
fxor %f28, %f0, %f0
|
|
fxor %f30, %f2, %f2
|
|
|
|
10:
|
|
sethi %hi(SIGMA), %g3
|
|
or %g3, %lo(SIGMA), %g3
|
|
ldd [%g3 + 0x00], %f16
|
|
ldd [%g3 + 0x08], %f18
|
|
ldd [%g3 + 0x10], %f20
|
|
ldd [%g3 + 0x18], %f22
|
|
ldd [%g3 + 0x20], %f24
|
|
ldd [%g3 + 0x28], %f26
|
|
CAMELLIA_F(16, 2, 0, 2)
|
|
CAMELLIA_F(18, 0, 2, 0)
|
|
fxor %f28, %f0, %f0
|
|
fxor %f30, %f2, %f2
|
|
CAMELLIA_F(20, 2, 0, 2)
|
|
CAMELLIA_F(22, 0, 2, 0)
|
|
|
|
#define ROTL128(S01, S23, TMP1, TMP2, N) \
|
|
srlx S01, (64 - N), TMP1; \
|
|
sllx S01, N, S01; \
|
|
srlx S23, (64 - N), TMP2; \
|
|
sllx S23, N, S23; \
|
|
or S01, TMP2, S01; \
|
|
or S23, TMP1, S23
|
|
|
|
cmp %o2, 16
|
|
bne 1f
|
|
nop
|
|
/* 128-bit key */
|
|
std %f0, [%o1 + 0x10] ! k[ 4, 5]
|
|
std %f2, [%o1 + 0x18] ! k[ 6, 7]
|
|
MOVDTOX_F0_O4
|
|
MOVDTOX_F2_O5
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x30] ! k[12, 13]
|
|
stx %o5, [%o1 + 0x38] ! k[14, 15]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x40] ! k[16, 17]
|
|
stx %o5, [%o1 + 0x48] ! k[18, 19]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x60] ! k[24, 25]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x70] ! k[28, 29]
|
|
stx %o5, [%o1 + 0x78] ! k[30, 31]
|
|
ROTL128(%o4, %o5, %g2, %g3, 34)
|
|
stx %o4, [%o1 + 0xa0] ! k[40, 41]
|
|
stx %o5, [%o1 + 0xa8] ! k[42, 43]
|
|
ROTL128(%o4, %o5, %g2, %g3, 17)
|
|
stx %o4, [%o1 + 0xc0] ! k[48, 49]
|
|
stx %o5, [%o1 + 0xc8] ! k[50, 51]
|
|
|
|
ldx [%o1 + 0x00], %o4 ! k[ 0, 1]
|
|
ldx [%o1 + 0x08], %o5 ! k[ 2, 3]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x20] ! k[ 8, 9]
|
|
stx %o5, [%o1 + 0x28] ! k[10, 11]
|
|
ROTL128(%o4, %o5, %g2, %g3, 30)
|
|
stx %o4, [%o1 + 0x50] ! k[20, 21]
|
|
stx %o5, [%o1 + 0x58] ! k[22, 23]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o5, [%o1 + 0x68] ! k[26, 27]
|
|
ROTL128(%o4, %o5, %g2, %g3, 17)
|
|
stx %o4, [%o1 + 0x80] ! k[32, 33]
|
|
stx %o5, [%o1 + 0x88] ! k[34, 35]
|
|
ROTL128(%o4, %o5, %g2, %g3, 17)
|
|
stx %o4, [%o1 + 0x90] ! k[36, 37]
|
|
stx %o5, [%o1 + 0x98] ! k[38, 39]
|
|
ROTL128(%o4, %o5, %g2, %g3, 17)
|
|
stx %o4, [%o1 + 0xb0] ! k[44, 45]
|
|
stx %o5, [%o1 + 0xb8] ! k[46, 47]
|
|
|
|
ba,pt %xcc, 2f
|
|
mov (3 * 16 * 4), %o0
|
|
|
|
1:
|
|
/* 192-bit or 256-bit key */
|
|
std %f0, [%o1 + 0x30] ! k[12, 13]
|
|
std %f2, [%o1 + 0x38] ! k[14, 15]
|
|
ldd [%o1 + 0x20], %f4 ! k[ 8, 9]
|
|
ldd [%o1 + 0x28], %f6 ! k[10, 11]
|
|
fxor %f0, %f4, %f0
|
|
fxor %f2, %f6, %f2
|
|
CAMELLIA_F(24, 2, 0, 2)
|
|
CAMELLIA_F(26, 0, 2, 0)
|
|
std %f0, [%o1 + 0x10] ! k[ 4, 5]
|
|
std %f2, [%o1 + 0x18] ! k[ 6, 7]
|
|
MOVDTOX_F0_O4
|
|
MOVDTOX_F2_O5
|
|
ROTL128(%o4, %o5, %g2, %g3, 30)
|
|
stx %o4, [%o1 + 0x50] ! k[20, 21]
|
|
stx %o5, [%o1 + 0x58] ! k[22, 23]
|
|
ROTL128(%o4, %o5, %g2, %g3, 30)
|
|
stx %o4, [%o1 + 0xa0] ! k[40, 41]
|
|
stx %o5, [%o1 + 0xa8] ! k[42, 43]
|
|
ROTL128(%o4, %o5, %g2, %g3, 51)
|
|
stx %o4, [%o1 + 0x100] ! k[64, 65]
|
|
stx %o5, [%o1 + 0x108] ! k[66, 67]
|
|
ldx [%o1 + 0x20], %o4 ! k[ 8, 9]
|
|
ldx [%o1 + 0x28], %o5 ! k[10, 11]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x20] ! k[ 8, 9]
|
|
stx %o5, [%o1 + 0x28] ! k[10, 11]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x40] ! k[16, 17]
|
|
stx %o5, [%o1 + 0x48] ! k[18, 19]
|
|
ROTL128(%o4, %o5, %g2, %g3, 30)
|
|
stx %o4, [%o1 + 0x90] ! k[36, 37]
|
|
stx %o5, [%o1 + 0x98] ! k[38, 39]
|
|
ROTL128(%o4, %o5, %g2, %g3, 34)
|
|
stx %o4, [%o1 + 0xd0] ! k[52, 53]
|
|
stx %o5, [%o1 + 0xd8] ! k[54, 55]
|
|
ldx [%o1 + 0x30], %o4 ! k[12, 13]
|
|
ldx [%o1 + 0x38], %o5 ! k[14, 15]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x30] ! k[12, 13]
|
|
stx %o5, [%o1 + 0x38] ! k[14, 15]
|
|
ROTL128(%o4, %o5, %g2, %g3, 30)
|
|
stx %o4, [%o1 + 0x70] ! k[28, 29]
|
|
stx %o5, [%o1 + 0x78] ! k[30, 31]
|
|
srlx %o4, 32, %g2
|
|
srlx %o5, 32, %g3
|
|
stw %o4, [%o1 + 0xc0] ! k[48]
|
|
stw %g3, [%o1 + 0xc4] ! k[49]
|
|
stw %o5, [%o1 + 0xc8] ! k[50]
|
|
stw %g2, [%o1 + 0xcc] ! k[51]
|
|
ROTL128(%o4, %o5, %g2, %g3, 49)
|
|
stx %o4, [%o1 + 0xe0] ! k[56, 57]
|
|
stx %o5, [%o1 + 0xe8] ! k[58, 59]
|
|
ldx [%o1 + 0x00], %o4 ! k[ 0, 1]
|
|
ldx [%o1 + 0x08], %o5 ! k[ 2, 3]
|
|
ROTL128(%o4, %o5, %g2, %g3, 45)
|
|
stx %o4, [%o1 + 0x60] ! k[24, 25]
|
|
stx %o5, [%o1 + 0x68] ! k[26, 27]
|
|
ROTL128(%o4, %o5, %g2, %g3, 15)
|
|
stx %o4, [%o1 + 0x80] ! k[32, 33]
|
|
stx %o5, [%o1 + 0x88] ! k[34, 35]
|
|
ROTL128(%o4, %o5, %g2, %g3, 17)
|
|
stx %o4, [%o1 + 0xb0] ! k[44, 45]
|
|
stx %o5, [%o1 + 0xb8] ! k[46, 47]
|
|
ROTL128(%o4, %o5, %g2, %g3, 34)
|
|
stx %o4, [%o1 + 0xf0] ! k[60, 61]
|
|
stx %o5, [%o1 + 0xf8] ! k[62, 63]
|
|
mov (4 * 16 * 4), %o0
|
|
2:
|
|
add %o1, %o0, %o1
|
|
ldd [%o1 + 0x00], %f0
|
|
ldd [%o1 + 0x08], %f2
|
|
std %f0, [%o3 + 0x00]
|
|
std %f2, [%o3 + 0x08]
|
|
add %o3, 0x10, %o3
|
|
1:
|
|
sub %o1, (16 * 4), %o1
|
|
ldd [%o1 + 0x38], %f0
|
|
ldd [%o1 + 0x30], %f2
|
|
ldd [%o1 + 0x28], %f4
|
|
ldd [%o1 + 0x20], %f6
|
|
ldd [%o1 + 0x18], %f8
|
|
ldd [%o1 + 0x10], %f10
|
|
std %f0, [%o3 + 0x00]
|
|
std %f2, [%o3 + 0x08]
|
|
std %f4, [%o3 + 0x10]
|
|
std %f6, [%o3 + 0x18]
|
|
std %f8, [%o3 + 0x20]
|
|
std %f10, [%o3 + 0x28]
|
|
|
|
ldd [%o1 + 0x08], %f0
|
|
ldd [%o1 + 0x00], %f2
|
|
std %f0, [%o3 + 0x30]
|
|
std %f2, [%o3 + 0x38]
|
|
subcc %o0, (16 * 4), %o0
|
|
bne,pt %icc, 1b
|
|
add %o3, (16 * 4), %o3
|
|
|
|
std %f2, [%o3 - 0x10]
|
|
std %f0, [%o3 - 0x08]
|
|
|
|
retl
|
|
VISExit
|
|
ENDPROC(camellia_sparc64_key_expand)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_crypt)
|
|
/* %o0=key, %o1=input, %o2=output, %o3=key_len */
|
|
VISEntry
|
|
|
|
ld [%o1 + 0x00], %f0
|
|
ld [%o1 + 0x04], %f1
|
|
ld [%o1 + 0x08], %f2
|
|
ld [%o1 + 0x0c], %f3
|
|
|
|
ldd [%o0 + 0x00], %f4
|
|
ldd [%o0 + 0x08], %f6
|
|
|
|
cmp %o3, 16
|
|
fxor %f4, %f0, %f0
|
|
be 1f
|
|
fxor %f6, %f2, %f2
|
|
|
|
ldd [%o0 + 0x10], %f8
|
|
ldd [%o0 + 0x18], %f10
|
|
ldd [%o0 + 0x20], %f12
|
|
ldd [%o0 + 0x28], %f14
|
|
ldd [%o0 + 0x30], %f16
|
|
ldd [%o0 + 0x38], %f18
|
|
ldd [%o0 + 0x40], %f20
|
|
ldd [%o0 + 0x48], %f22
|
|
add %o0, 0x40, %o0
|
|
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
|
|
1:
|
|
ldd [%o0 + 0x10], %f8
|
|
ldd [%o0 + 0x18], %f10
|
|
ldd [%o0 + 0x20], %f12
|
|
ldd [%o0 + 0x28], %f14
|
|
ldd [%o0 + 0x30], %f16
|
|
ldd [%o0 + 0x38], %f18
|
|
ldd [%o0 + 0x40], %f20
|
|
ldd [%o0 + 0x48], %f22
|
|
ldd [%o0 + 0x50], %f24
|
|
ldd [%o0 + 0x58], %f26
|
|
ldd [%o0 + 0x60], %f28
|
|
ldd [%o0 + 0x68], %f30
|
|
ldd [%o0 + 0x70], %f32
|
|
ldd [%o0 + 0x78], %f34
|
|
ldd [%o0 + 0x80], %f36
|
|
ldd [%o0 + 0x88], %f38
|
|
ldd [%o0 + 0x90], %f40
|
|
ldd [%o0 + 0x98], %f42
|
|
ldd [%o0 + 0xa0], %f44
|
|
ldd [%o0 + 0xa8], %f46
|
|
ldd [%o0 + 0xb0], %f48
|
|
ldd [%o0 + 0xb8], %f50
|
|
ldd [%o0 + 0xc0], %f52
|
|
ldd [%o0 + 0xc8], %f54
|
|
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
CAMELLIA_6ROUNDS_FL_FLI(24, 0, 2)
|
|
CAMELLIA_6ROUNDS(40, 0, 2)
|
|
fxor %f52, %f2, %f2
|
|
fxor %f54, %f0, %f0
|
|
|
|
st %f2, [%o2 + 0x00]
|
|
st %f3, [%o2 + 0x04]
|
|
st %f0, [%o2 + 0x08]
|
|
st %f1, [%o2 + 0x0c]
|
|
|
|
retl
|
|
VISExit
|
|
ENDPROC(camellia_sparc64_crypt)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_load_keys)
|
|
/* %o0=key, %o1=key_len */
|
|
VISEntry
|
|
ldd [%o0 + 0x00], %f4
|
|
ldd [%o0 + 0x08], %f6
|
|
ldd [%o0 + 0x10], %f8
|
|
ldd [%o0 + 0x18], %f10
|
|
ldd [%o0 + 0x20], %f12
|
|
ldd [%o0 + 0x28], %f14
|
|
ldd [%o0 + 0x30], %f16
|
|
ldd [%o0 + 0x38], %f18
|
|
ldd [%o0 + 0x40], %f20
|
|
ldd [%o0 + 0x48], %f22
|
|
ldd [%o0 + 0x50], %f24
|
|
ldd [%o0 + 0x58], %f26
|
|
ldd [%o0 + 0x60], %f28
|
|
ldd [%o0 + 0x68], %f30
|
|
ldd [%o0 + 0x70], %f32
|
|
ldd [%o0 + 0x78], %f34
|
|
ldd [%o0 + 0x80], %f36
|
|
ldd [%o0 + 0x88], %f38
|
|
ldd [%o0 + 0x90], %f40
|
|
ldd [%o0 + 0x98], %f42
|
|
ldd [%o0 + 0xa0], %f44
|
|
ldd [%o0 + 0xa8], %f46
|
|
ldd [%o0 + 0xb0], %f48
|
|
ldd [%o0 + 0xb8], %f50
|
|
ldd [%o0 + 0xc0], %f52
|
|
retl
|
|
ldd [%o0 + 0xc8], %f54
|
|
ENDPROC(camellia_sparc64_load_keys)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_ecb_crypt_3_grand_rounds)
|
|
/* %o0=input, %o1=output, %o2=len, %o3=key */
|
|
1: ldd [%o0 + 0x00], %f0
|
|
ldd [%o0 + 0x08], %f2
|
|
add %o0, 0x10, %o0
|
|
fxor %f4, %f0, %f0
|
|
fxor %f6, %f2, %f2
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
CAMELLIA_6ROUNDS_FL_FLI(24, 0, 2)
|
|
CAMELLIA_6ROUNDS(40, 0, 2)
|
|
fxor %f52, %f2, %f2
|
|
fxor %f54, %f0, %f0
|
|
std %f2, [%o1 + 0x00]
|
|
std %f0, [%o1 + 0x08]
|
|
subcc %o2, 0x10, %o2
|
|
bne,pt %icc, 1b
|
|
add %o1, 0x10, %o1
|
|
retl
|
|
nop
|
|
ENDPROC(camellia_sparc64_ecb_crypt_3_grand_rounds)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_ecb_crypt_4_grand_rounds)
|
|
/* %o0=input, %o1=output, %o2=len, %o3=key */
|
|
1: ldd [%o0 + 0x00], %f0
|
|
ldd [%o0 + 0x08], %f2
|
|
add %o0, 0x10, %o0
|
|
fxor %f4, %f0, %f0
|
|
fxor %f6, %f2, %f2
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
ldd [%o3 + 0xd0], %f8
|
|
ldd [%o3 + 0xd8], %f10
|
|
ldd [%o3 + 0xe0], %f12
|
|
ldd [%o3 + 0xe8], %f14
|
|
ldd [%o3 + 0xf0], %f16
|
|
ldd [%o3 + 0xf8], %f18
|
|
ldd [%o3 + 0x100], %f20
|
|
ldd [%o3 + 0x108], %f22
|
|
CAMELLIA_6ROUNDS_FL_FLI(24, 0, 2)
|
|
CAMELLIA_6ROUNDS_FL_FLI(40, 0, 2)
|
|
CAMELLIA_F(8, 2, 0, 2)
|
|
CAMELLIA_F(10, 0, 2, 0)
|
|
ldd [%o3 + 0x10], %f8
|
|
ldd [%o3 + 0x18], %f10
|
|
CAMELLIA_F(12, 2, 0, 2)
|
|
CAMELLIA_F(14, 0, 2, 0)
|
|
ldd [%o3 + 0x20], %f12
|
|
ldd [%o3 + 0x28], %f14
|
|
CAMELLIA_F(16, 2, 0, 2)
|
|
CAMELLIA_F(18, 0, 2, 0)
|
|
ldd [%o3 + 0x30], %f16
|
|
ldd [%o3 + 0x38], %f18
|
|
fxor %f20, %f2, %f2
|
|
fxor %f22, %f0, %f0
|
|
ldd [%o3 + 0x40], %f20
|
|
ldd [%o3 + 0x48], %f22
|
|
std %f2, [%o1 + 0x00]
|
|
std %f0, [%o1 + 0x08]
|
|
subcc %o2, 0x10, %o2
|
|
bne,pt %icc, 1b
|
|
add %o1, 0x10, %o1
|
|
retl
|
|
nop
|
|
ENDPROC(camellia_sparc64_ecb_crypt_4_grand_rounds)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_cbc_encrypt_3_grand_rounds)
|
|
/* %o0=input, %o1=output, %o2=len, %o3=key, %o4=IV */
|
|
ldd [%o4 + 0x00], %f60
|
|
ldd [%o4 + 0x08], %f62
|
|
1: ldd [%o0 + 0x00], %f0
|
|
ldd [%o0 + 0x08], %f2
|
|
add %o0, 0x10, %o0
|
|
fxor %f60, %f0, %f0
|
|
fxor %f62, %f2, %f2
|
|
fxor %f4, %f0, %f0
|
|
fxor %f6, %f2, %f2
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
CAMELLIA_6ROUNDS_FL_FLI(24, 0, 2)
|
|
CAMELLIA_6ROUNDS(40, 0, 2)
|
|
fxor %f52, %f2, %f60
|
|
fxor %f54, %f0, %f62
|
|
std %f60, [%o1 + 0x00]
|
|
std %f62, [%o1 + 0x08]
|
|
subcc %o2, 0x10, %o2
|
|
bne,pt %icc, 1b
|
|
add %o1, 0x10, %o1
|
|
std %f60, [%o4 + 0x00]
|
|
retl
|
|
std %f62, [%o4 + 0x08]
|
|
ENDPROC(camellia_sparc64_cbc_encrypt_3_grand_rounds)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_cbc_encrypt_4_grand_rounds)
|
|
/* %o0=input, %o1=output, %o2=len, %o3=key, %o4=IV */
|
|
ldd [%o4 + 0x00], %f60
|
|
ldd [%o4 + 0x08], %f62
|
|
1: ldd [%o0 + 0x00], %f0
|
|
ldd [%o0 + 0x08], %f2
|
|
add %o0, 0x10, %o0
|
|
fxor %f60, %f0, %f0
|
|
fxor %f62, %f2, %f2
|
|
fxor %f4, %f0, %f0
|
|
fxor %f6, %f2, %f2
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
ldd [%o3 + 0xd0], %f8
|
|
ldd [%o3 + 0xd8], %f10
|
|
ldd [%o3 + 0xe0], %f12
|
|
ldd [%o3 + 0xe8], %f14
|
|
ldd [%o3 + 0xf0], %f16
|
|
ldd [%o3 + 0xf8], %f18
|
|
ldd [%o3 + 0x100], %f20
|
|
ldd [%o3 + 0x108], %f22
|
|
CAMELLIA_6ROUNDS_FL_FLI(24, 0, 2)
|
|
CAMELLIA_6ROUNDS_FL_FLI(40, 0, 2)
|
|
CAMELLIA_F(8, 2, 0, 2)
|
|
CAMELLIA_F(10, 0, 2, 0)
|
|
ldd [%o3 + 0x10], %f8
|
|
ldd [%o3 + 0x18], %f10
|
|
CAMELLIA_F(12, 2, 0, 2)
|
|
CAMELLIA_F(14, 0, 2, 0)
|
|
ldd [%o3 + 0x20], %f12
|
|
ldd [%o3 + 0x28], %f14
|
|
CAMELLIA_F(16, 2, 0, 2)
|
|
CAMELLIA_F(18, 0, 2, 0)
|
|
ldd [%o3 + 0x30], %f16
|
|
ldd [%o3 + 0x38], %f18
|
|
fxor %f20, %f2, %f60
|
|
fxor %f22, %f0, %f62
|
|
ldd [%o3 + 0x40], %f20
|
|
ldd [%o3 + 0x48], %f22
|
|
std %f60, [%o1 + 0x00]
|
|
std %f62, [%o1 + 0x08]
|
|
subcc %o2, 0x10, %o2
|
|
bne,pt %icc, 1b
|
|
add %o1, 0x10, %o1
|
|
std %f60, [%o4 + 0x00]
|
|
retl
|
|
std %f62, [%o4 + 0x08]
|
|
ENDPROC(camellia_sparc64_cbc_encrypt_4_grand_rounds)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_cbc_decrypt_3_grand_rounds)
|
|
/* %o0=input, %o1=output, %o2=len, %o3=key, %o4=IV */
|
|
ldd [%o4 + 0x00], %f60
|
|
ldd [%o4 + 0x08], %f62
|
|
1: ldd [%o0 + 0x00], %f56
|
|
ldd [%o0 + 0x08], %f58
|
|
add %o0, 0x10, %o0
|
|
fxor %f4, %f56, %f0
|
|
fxor %f6, %f58, %f2
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
CAMELLIA_6ROUNDS_FL_FLI(24, 0, 2)
|
|
CAMELLIA_6ROUNDS(40, 0, 2)
|
|
fxor %f52, %f2, %f2
|
|
fxor %f54, %f0, %f0
|
|
fxor %f60, %f2, %f2
|
|
fxor %f62, %f0, %f0
|
|
fsrc2 %f56, %f60
|
|
fsrc2 %f58, %f62
|
|
std %f2, [%o1 + 0x00]
|
|
std %f0, [%o1 + 0x08]
|
|
subcc %o2, 0x10, %o2
|
|
bne,pt %icc, 1b
|
|
add %o1, 0x10, %o1
|
|
std %f60, [%o4 + 0x00]
|
|
retl
|
|
std %f62, [%o4 + 0x08]
|
|
ENDPROC(camellia_sparc64_cbc_decrypt_3_grand_rounds)
|
|
|
|
.align 32
|
|
ENTRY(camellia_sparc64_cbc_decrypt_4_grand_rounds)
|
|
/* %o0=input, %o1=output, %o2=len, %o3=key, %o4=IV */
|
|
ldd [%o4 + 0x00], %f60
|
|
ldd [%o4 + 0x08], %f62
|
|
1: ldd [%o0 + 0x00], %f56
|
|
ldd [%o0 + 0x08], %f58
|
|
add %o0, 0x10, %o0
|
|
fxor %f4, %f56, %f0
|
|
fxor %f6, %f58, %f2
|
|
CAMELLIA_6ROUNDS_FL_FLI( 8, 0, 2)
|
|
ldd [%o3 + 0xd0], %f8
|
|
ldd [%o3 + 0xd8], %f10
|
|
ldd [%o3 + 0xe0], %f12
|
|
ldd [%o3 + 0xe8], %f14
|
|
ldd [%o3 + 0xf0], %f16
|
|
ldd [%o3 + 0xf8], %f18
|
|
ldd [%o3 + 0x100], %f20
|
|
ldd [%o3 + 0x108], %f22
|
|
CAMELLIA_6ROUNDS_FL_FLI(24, 0, 2)
|
|
CAMELLIA_6ROUNDS_FL_FLI(40, 0, 2)
|
|
CAMELLIA_F(8, 2, 0, 2)
|
|
CAMELLIA_F(10, 0, 2, 0)
|
|
ldd [%o3 + 0x10], %f8
|
|
ldd [%o3 + 0x18], %f10
|
|
CAMELLIA_F(12, 2, 0, 2)
|
|
CAMELLIA_F(14, 0, 2, 0)
|
|
ldd [%o3 + 0x20], %f12
|
|
ldd [%o3 + 0x28], %f14
|
|
CAMELLIA_F(16, 2, 0, 2)
|
|
CAMELLIA_F(18, 0, 2, 0)
|
|
ldd [%o3 + 0x30], %f16
|
|
ldd [%o3 + 0x38], %f18
|
|
fxor %f20, %f2, %f2
|
|
fxor %f22, %f0, %f0
|
|
ldd [%o3 + 0x40], %f20
|
|
ldd [%o3 + 0x48], %f22
|
|
fxor %f60, %f2, %f2
|
|
fxor %f62, %f0, %f0
|
|
fsrc2 %f56, %f60
|
|
fsrc2 %f58, %f62
|
|
std %f2, [%o1 + 0x00]
|
|
std %f0, [%o1 + 0x08]
|
|
subcc %o2, 0x10, %o2
|
|
bne,pt %icc, 1b
|
|
add %o1, 0x10, %o1
|
|
std %f60, [%o4 + 0x00]
|
|
retl
|
|
std %f62, [%o4 + 0x08]
|
|
ENDPROC(camellia_sparc64_cbc_decrypt_4_grand_rounds)
|