1*5f60d5f6SAl Viro /* SPDX-License-Identifier: GPL-2.0 */
2*5f60d5f6SAl Viro #ifndef __LINUX_UNALIGNED_H
3*5f60d5f6SAl Viro #define __LINUX_UNALIGNED_H
4*5f60d5f6SAl Viro
5*5f60d5f6SAl Viro /*
6*5f60d5f6SAl Viro * This is the most generic implementation of unaligned accesses
7*5f60d5f6SAl Viro * and should work almost anywhere.
8*5f60d5f6SAl Viro */
9*5f60d5f6SAl Viro #include <linux/unaligned/packed_struct.h>
10*5f60d5f6SAl Viro #include <asm/byteorder.h>
11*5f60d5f6SAl Viro #include <vdso/unaligned.h>
12*5f60d5f6SAl Viro
13*5f60d5f6SAl Viro #define get_unaligned(ptr) __get_unaligned_t(typeof(*(ptr)), (ptr))
14*5f60d5f6SAl Viro #define put_unaligned(val, ptr) __put_unaligned_t(typeof(*(ptr)), (val), (ptr))
15*5f60d5f6SAl Viro
get_unaligned_le16(const void * p)16*5f60d5f6SAl Viro static inline u16 get_unaligned_le16(const void *p)
17*5f60d5f6SAl Viro {
18*5f60d5f6SAl Viro return le16_to_cpu(__get_unaligned_t(__le16, p));
19*5f60d5f6SAl Viro }
20*5f60d5f6SAl Viro
get_unaligned_le32(const void * p)21*5f60d5f6SAl Viro static inline u32 get_unaligned_le32(const void *p)
22*5f60d5f6SAl Viro {
23*5f60d5f6SAl Viro return le32_to_cpu(__get_unaligned_t(__le32, p));
24*5f60d5f6SAl Viro }
25*5f60d5f6SAl Viro
get_unaligned_le64(const void * p)26*5f60d5f6SAl Viro static inline u64 get_unaligned_le64(const void *p)
27*5f60d5f6SAl Viro {
28*5f60d5f6SAl Viro return le64_to_cpu(__get_unaligned_t(__le64, p));
29*5f60d5f6SAl Viro }
30*5f60d5f6SAl Viro
put_unaligned_le16(u16 val,void * p)31*5f60d5f6SAl Viro static inline void put_unaligned_le16(u16 val, void *p)
32*5f60d5f6SAl Viro {
33*5f60d5f6SAl Viro __put_unaligned_t(__le16, cpu_to_le16(val), p);
34*5f60d5f6SAl Viro }
35*5f60d5f6SAl Viro
put_unaligned_le32(u32 val,void * p)36*5f60d5f6SAl Viro static inline void put_unaligned_le32(u32 val, void *p)
37*5f60d5f6SAl Viro {
38*5f60d5f6SAl Viro __put_unaligned_t(__le32, cpu_to_le32(val), p);
39*5f60d5f6SAl Viro }
40*5f60d5f6SAl Viro
put_unaligned_le64(u64 val,void * p)41*5f60d5f6SAl Viro static inline void put_unaligned_le64(u64 val, void *p)
42*5f60d5f6SAl Viro {
43*5f60d5f6SAl Viro __put_unaligned_t(__le64, cpu_to_le64(val), p);
44*5f60d5f6SAl Viro }
45*5f60d5f6SAl Viro
get_unaligned_be16(const void * p)46*5f60d5f6SAl Viro static inline u16 get_unaligned_be16(const void *p)
47*5f60d5f6SAl Viro {
48*5f60d5f6SAl Viro return be16_to_cpu(__get_unaligned_t(__be16, p));
49*5f60d5f6SAl Viro }
50*5f60d5f6SAl Viro
get_unaligned_be32(const void * p)51*5f60d5f6SAl Viro static inline u32 get_unaligned_be32(const void *p)
52*5f60d5f6SAl Viro {
53*5f60d5f6SAl Viro return be32_to_cpu(__get_unaligned_t(__be32, p));
54*5f60d5f6SAl Viro }
55*5f60d5f6SAl Viro
get_unaligned_be64(const void * p)56*5f60d5f6SAl Viro static inline u64 get_unaligned_be64(const void *p)
57*5f60d5f6SAl Viro {
58*5f60d5f6SAl Viro return be64_to_cpu(__get_unaligned_t(__be64, p));
59*5f60d5f6SAl Viro }
60*5f60d5f6SAl Viro
put_unaligned_be16(u16 val,void * p)61*5f60d5f6SAl Viro static inline void put_unaligned_be16(u16 val, void *p)
62*5f60d5f6SAl Viro {
63*5f60d5f6SAl Viro __put_unaligned_t(__be16, cpu_to_be16(val), p);
64*5f60d5f6SAl Viro }
65*5f60d5f6SAl Viro
put_unaligned_be32(u32 val,void * p)66*5f60d5f6SAl Viro static inline void put_unaligned_be32(u32 val, void *p)
67*5f60d5f6SAl Viro {
68*5f60d5f6SAl Viro __put_unaligned_t(__be32, cpu_to_be32(val), p);
69*5f60d5f6SAl Viro }
70*5f60d5f6SAl Viro
put_unaligned_be64(u64 val,void * p)71*5f60d5f6SAl Viro static inline void put_unaligned_be64(u64 val, void *p)
72*5f60d5f6SAl Viro {
73*5f60d5f6SAl Viro __put_unaligned_t(__be64, cpu_to_be64(val), p);
74*5f60d5f6SAl Viro }
75*5f60d5f6SAl Viro
__get_unaligned_be24(const u8 * p)76*5f60d5f6SAl Viro static inline u32 __get_unaligned_be24(const u8 *p)
77*5f60d5f6SAl Viro {
78*5f60d5f6SAl Viro return p[0] << 16 | p[1] << 8 | p[2];
79*5f60d5f6SAl Viro }
80*5f60d5f6SAl Viro
get_unaligned_be24(const void * p)81*5f60d5f6SAl Viro static inline u32 get_unaligned_be24(const void *p)
82*5f60d5f6SAl Viro {
83*5f60d5f6SAl Viro return __get_unaligned_be24(p);
84*5f60d5f6SAl Viro }
85*5f60d5f6SAl Viro
__get_unaligned_le24(const u8 * p)86*5f60d5f6SAl Viro static inline u32 __get_unaligned_le24(const u8 *p)
87*5f60d5f6SAl Viro {
88*5f60d5f6SAl Viro return p[0] | p[1] << 8 | p[2] << 16;
89*5f60d5f6SAl Viro }
90*5f60d5f6SAl Viro
get_unaligned_le24(const void * p)91*5f60d5f6SAl Viro static inline u32 get_unaligned_le24(const void *p)
92*5f60d5f6SAl Viro {
93*5f60d5f6SAl Viro return __get_unaligned_le24(p);
94*5f60d5f6SAl Viro }
95*5f60d5f6SAl Viro
__put_unaligned_be24(const u32 val,u8 * p)96*5f60d5f6SAl Viro static inline void __put_unaligned_be24(const u32 val, u8 *p)
97*5f60d5f6SAl Viro {
98*5f60d5f6SAl Viro *p++ = (val >> 16) & 0xff;
99*5f60d5f6SAl Viro *p++ = (val >> 8) & 0xff;
100*5f60d5f6SAl Viro *p++ = val & 0xff;
101*5f60d5f6SAl Viro }
102*5f60d5f6SAl Viro
put_unaligned_be24(const u32 val,void * p)103*5f60d5f6SAl Viro static inline void put_unaligned_be24(const u32 val, void *p)
104*5f60d5f6SAl Viro {
105*5f60d5f6SAl Viro __put_unaligned_be24(val, p);
106*5f60d5f6SAl Viro }
107*5f60d5f6SAl Viro
__put_unaligned_le24(const u32 val,u8 * p)108*5f60d5f6SAl Viro static inline void __put_unaligned_le24(const u32 val, u8 *p)
109*5f60d5f6SAl Viro {
110*5f60d5f6SAl Viro *p++ = val & 0xff;
111*5f60d5f6SAl Viro *p++ = (val >> 8) & 0xff;
112*5f60d5f6SAl Viro *p++ = (val >> 16) & 0xff;
113*5f60d5f6SAl Viro }
114*5f60d5f6SAl Viro
put_unaligned_le24(const u32 val,void * p)115*5f60d5f6SAl Viro static inline void put_unaligned_le24(const u32 val, void *p)
116*5f60d5f6SAl Viro {
117*5f60d5f6SAl Viro __put_unaligned_le24(val, p);
118*5f60d5f6SAl Viro }
119*5f60d5f6SAl Viro
__put_unaligned_be48(const u64 val,u8 * p)120*5f60d5f6SAl Viro static inline void __put_unaligned_be48(const u64 val, u8 *p)
121*5f60d5f6SAl Viro {
122*5f60d5f6SAl Viro *p++ = (val >> 40) & 0xff;
123*5f60d5f6SAl Viro *p++ = (val >> 32) & 0xff;
124*5f60d5f6SAl Viro *p++ = (val >> 24) & 0xff;
125*5f60d5f6SAl Viro *p++ = (val >> 16) & 0xff;
126*5f60d5f6SAl Viro *p++ = (val >> 8) & 0xff;
127*5f60d5f6SAl Viro *p++ = val & 0xff;
128*5f60d5f6SAl Viro }
129*5f60d5f6SAl Viro
put_unaligned_be48(const u64 val,void * p)130*5f60d5f6SAl Viro static inline void put_unaligned_be48(const u64 val, void *p)
131*5f60d5f6SAl Viro {
132*5f60d5f6SAl Viro __put_unaligned_be48(val, p);
133*5f60d5f6SAl Viro }
134*5f60d5f6SAl Viro
__get_unaligned_be48(const u8 * p)135*5f60d5f6SAl Viro static inline u64 __get_unaligned_be48(const u8 *p)
136*5f60d5f6SAl Viro {
137*5f60d5f6SAl Viro return (u64)p[0] << 40 | (u64)p[1] << 32 | (u64)p[2] << 24 |
138*5f60d5f6SAl Viro p[3] << 16 | p[4] << 8 | p[5];
139*5f60d5f6SAl Viro }
140*5f60d5f6SAl Viro
get_unaligned_be48(const void * p)141*5f60d5f6SAl Viro static inline u64 get_unaligned_be48(const void *p)
142*5f60d5f6SAl Viro {
143*5f60d5f6SAl Viro return __get_unaligned_be48(p);
144*5f60d5f6SAl Viro }
145*5f60d5f6SAl Viro
146*5f60d5f6SAl Viro #endif /* __LINUX_UNALIGNED_H */
147