Home
last modified time | relevance | path

Searched refs:szind_t (Results 1 – 25 of 25) sorted by relevance

/f-stack/app/redis-5.0.5/deps/jemalloc/include/jemalloc/internal/
H A Dsz.h124 static inline szind_t
131 szind_t lg_tmin = LG_TINY_MAXCLASS - NTBINS + 1; in sz_size2index_compute()
132 szind_t lg_ceil = lg_floor(pow2_ceil_zu(size)); in sz_size2index_compute()
137 szind_t x = lg_floor((size<<1)-1); in sz_size2index_compute()
140 szind_t grp = shift << LG_SIZE_CLASS_GROUP; in sz_size2index_compute()
149 szind_t index = NTBINS + grp + mod; in sz_size2index_compute()
154 JEMALLOC_ALWAYS_INLINE szind_t
164 JEMALLOC_ALWAYS_INLINE szind_t
174 sz_index2size_compute(szind_t index) { in sz_index2size_compute()
200 sz_index2size_lookup(szind_t index) { in sz_index2size_lookup()
[all …]
H A Drtree.h198 JEMALLOC_ALWAYS_INLINE szind_t
200 return (szind_t)(bits >> LG_VADDR); in rtree_leaf_elm_bits_szind_get()
223 JEMALLOC_ALWAYS_INLINE szind_t
230 return (szind_t)atomic_load_u(&elm->le_szind, dependent ? ATOMIC_RELAXED in rtree_leaf_elm_szind_read()
263 rtree_leaf_elm_t *elm, szind_t szind) { in rtree_leaf_elm_szind_write()
296 extent_t *extent, szind_t szind, bool slab) { in rtree_leaf_elm_write()
315 rtree_leaf_elm_t *elm, szind_t szind, bool slab) { in rtree_leaf_elm_szind_slab_update()
387 extent_t *extent, szind_t szind, bool slab) { in rtree_write()
426 JEMALLOC_ALWAYS_INLINE szind_t
457 uintptr_t key, bool dependent, szind_t *r_szind, bool *r_slab) { in rtree_szind_slab_read()
[all …]
H A Dtcache_externs.h33 cache_bin_t *tbin, szind_t binind, bool *tcache_success);
35 szind_t binind, unsigned rem);
36 void tcache_bin_flush_large(tsd_t *tsd, cache_bin_t *tbin, szind_t binind,
H A Dextent_externs.h36 size_t size, size_t pad, size_t alignment, bool slab, szind_t szind,
47 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit);
67 szind_t szind_a, bool slab_a, size_t size_b, szind_t szind_b, bool slab_b);
H A Darena_inlines_b.h87 arena_malloc(tsdn_t *tsdn, arena_t *arena, size_t size, szind_t ind, bool zero, in arena_malloc()
120 szind_t szind = rtree_szind_read(tsdn, &extents_rtree, rtree_ctx, in arena_salloc()
142 szind_t szind; in arena_vsalloc()
167 szind_t szind; in arena_dalloc_no_tcache()
200 szind_t szind; in arena_dalloc()
247 szind_t szind; in arena_sdalloc_no_tcache()
298 szind_t szind; in arena_sdalloc()
H A Dextent_inlines.h52 static inline szind_t
54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >> in extent_szind_get_maybe_invalid()
60 static inline szind_t
62 szind_t szind = extent_szind_get_maybe_invalid(extent); in extent_szind_get()
236 extent_szind_set(extent_t *extent, szind_t szind) { in extent_szind_set()
304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed, in extent_init()
H A Dtcache_inlines.h43 UNUSED size_t size, szind_t binind, bool zero, bool slow_path) { in tcache_alloc_small()
105 szind_t binind, bool zero, bool slow_path) { in tcache_alloc_large()
164 tcache_dalloc_small(tsd_t *tsd, tcache_t *tcache, void *ptr, szind_t binind, in tcache_dalloc_small()
189 tcache_dalloc_large(tsd_t *tsd, tcache_t *tcache, void *ptr, szind_t binind, in tcache_dalloc_large()
H A Darena_externs.h29 size_t arena_slab_regind(extent_t *slab, szind_t binind, const void *ptr);
48 cache_bin_t *tbin, szind_t binind, uint64_t prof_accumbytes);
56 szind_t ind, bool zero);
H A Djemalloc_internal_inlines_c.h41 iallocztm(tsdn_t *tsdn, size_t size, szind_t ind, bool zero, tcache_t *tcache, in iallocztm()
61 ialloc(tsd_t *tsd, size_t size, szind_t ind, bool zero, bool slow_path) { in ialloc()
223 szind_t szind; in iget_defrag_hint()
230 szind_t binind = extent_szind_get(slab); in iget_defrag_hint()
H A Djemalloc_internal_inlines_a.h110 tcache_small_bin_get(tcache_t *tcache, szind_t binind) { in tcache_small_bin_get()
116 tcache_large_bin_get(tcache_t *tcache, szind_t binind) { in tcache_large_bin_get()
H A Dtcache_structs.h42 szind_t next_gc_bin;
H A Darena_structs_b.h225 szind_t szind;
H A Djemalloc_internal_types.h8 typedef unsigned szind_t; typedef
H A Darena_stats.h222 szind_t szind, uint64_t nrequests) { in arena_stats_large_nrequests_add()
/f-stack/app/redis-5.0.5/deps/jemalloc/src/
H A Darena.c158 szind_t i = 0; in arena_stats_merge()
203 for (szind_t i = 0; i < NBINS; i++) { in arena_stats_merge()
265 szind_t binind = extent_szind_get(slab); in arena_slab_reg_dalloc()
290 szind_t index, hindex; in arena_large_malloc_stats_update()
306 szind_t index, hindex; in arena_large_dalloc_stats_update()
335 szind_t szind = sz_size2index(usize); in arena_extent_alloc_large()
1094 szind_t szind) { in arena_slab_alloc_hard()
1153 szind_t binind) { in arena_bin_nonfull_slab_get()
1196 szind_t binind) { in arena_bin_malloc_hard()
1422 szind_t szind = sz_size2index(usize); in arena_prof_promote()
[all …]
H A Dextent.c60 szind_t szind_a, bool slab_a, size_t size_b, szind_t szind_b, bool slab_b,
111 size_t usize, size_t pad, size_t alignment, bool slab, szind_t szind,
679 rtree_leaf_elm_t *elm_b, extent_t *extent, szind_t szind, bool slab) { in extent_rtree_write_acquired()
689 szind_t szind) { in extent_interior_register()
754 szind_t szind = extent_szind_get_maybe_invalid(extent); in extent_register_impl()
942 szind_t szind, bool growing_retained) { in extent_split_interior()
1015 szind_t szind, extent_t *extent, bool growing_retained) { in extent_recycle_split()
1063 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit, in extent_recycle()
1228 bool slab, szind_t szind, bool *zero, bool *commit) { in extent_grow_retained()
1976 szind_t szind_a, bool slab_a, size_t size_b, szind_t szind_b, bool slab_b, in extent_split_impl()
[all …]
H A Dtcache.c41 szind_t binind = tcache->next_gc_bin; in tcache_event_hard()
89 cache_bin_t *tbin, szind_t binind, bool *tcache_success) { in tcache_alloc_small_hard()
105 szind_t binind, unsigned rem) { in tcache_bin_flush_small()
189 tcache_bin_flush_large(tsd_t *tsd, cache_bin_t *tbin, szind_t binind, in tcache_bin_flush_large()
H A Dbase.c205 szind_t index_floor = in base_extent_bump_alloc_post()
375 for (szind_t i = 0; i < NSIZES; i++) { in base_new()
429 for (szind_t i = sz_size2index(asize); i < NSIZES; i++) { in base_alloc_impl()
H A Dlarge.c181 szind_t szind = sz_size2index(usize); in large_ralloc_no_move_expand()
H A Djemalloc.c1673 size_t size, size_t usize, szind_t ind) { in imalloc_no_sample()
1715 size_t usize, szind_t ind) { in imalloc_sample()
1722 szind_t ind_large; in imalloc_sample()
1801 szind_t ind = 0; in imalloc_body()
H A Dctl.c2442 CTL_RO_NL_GEN(arenas_lextent_i_size, sz_index2size(NBINS+(szind_t)mib[2]),
2809 for (szind_t i = 0; i < NBINS; i++) { in CTL_RO_NL_CGEN()
/f-stack/app/redis-5.0.5/deps/jemalloc/test/unit/
H A Dslab.c4 szind_t binind; in TEST_BEGIN()
H A Dsize_classes.c27 szind_t index, max_index; in TEST_BEGIN()
H A Darena_reset.c67 szind_t szind; in vsalloc()
/f-stack/app/redis-5.0.5/deps/jemalloc/
H A DChangeLog676 + Rename index_t to szind_t to avoid an existing type on Solaris.