1 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64 2 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 3 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64 4 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32 5 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s 6 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32 7 8 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s 9 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 10 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s 11 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s 12 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s 13 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s 14 // SIMD-ONLY0-NOT: {{__kmpc|__tgt}} 15 16 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64 17 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 18 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64 19 20 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY1 %s 21 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 22 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY1 %s 23 // SIMD-ONLY1-NOT: {{__kmpc|__tgt}} 24 25 // expected-no-diagnostics 26 #ifndef HEADER 27 #define HEADER 28 29 template <typename T> 30 T tmain() { 31 T t_var = T(); 32 T vec[] = {1, 2}; 33 #pragma omp target 34 #pragma omp teams distribute parallel for reduction(+: t_var) 35 for (int i = 0; i < 2; ++i) { 36 t_var += (T) i; 37 } 38 return T(); 39 } 40 41 int main() { 42 static int sivar; 43 #ifdef LAMBDA 44 // LAMBDA: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer 45 46 // LAMBDA-LABEL: @main 47 // LAMBDA: call void [[OUTER_LAMBDA:@.+]]( 48 [&]() { 49 // LAMBDA: define{{.*}} internal{{.*}} void [[OUTER_LAMBDA]]( 50 // LAMBDA: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i8** null, i8** null, i32 0, i32 0) 51 // LAMBDA: call void @[[LOFFL1:.+]]( 52 // LAMBDA: ret 53 #pragma omp target 54 #pragma omp teams distribute parallel for reduction(+: sivar) 55 for (int i = 0; i < 2; ++i) { 56 // LAMBDA: define{{.*}} internal{{.*}} void @[[LOFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]]) 57 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}, 58 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 59 // LAMBDA: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to 60 // LAMBDA: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[LOUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]]) 61 // LAMBDA: ret void 62 63 // LAMBDA: define internal void @[[LOUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]]) 64 // Skip global and bound tid vars 65 // LAMBDA: {{.+}} = alloca i32*, 66 // LAMBDA: {{.+}} = alloca i32*, 67 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*, 68 // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}}, 69 // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 70 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 71 // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]] 72 // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]], 73 74 // LAMBDA: call void @__kmpc_for_static_init_4( 75 // LAMBDA: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[LPAR_OUTL:.+]] to 76 // LAMBDA: call void @__kmpc_for_static_fini( 77 // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 78 // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to 79 // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 80 // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 81 // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 82 // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 83 // LAMBDA: {{.+}}, label %[[CASE1:.+]] 84 // LAMBDA: {{.+}}, label %[[CASE2:.+]] 85 // LAMBDA: ] 86 // LAMBDA: [[CASE1]]: 87 // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]], 88 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 89 // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]] 90 // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]], 91 // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 92 // LAMBDA: br 93 // LAMBDA: [[CASE2]]: 94 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 95 // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}} 96 // LAMBDA: br 97 98 // LAMBDA: define internal void @[[LPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]]) 99 100 // Skip global and bound tid vars, and prev lb and ub vars 101 // LAMBDA: {{.+}} = alloca i32*, 102 // LAMBDA: {{.+}} = alloca i32*, 103 // LAMBDA: alloca i{{[0-9]+}}, 104 // LAMBDA: alloca i{{[0-9]+}}, 105 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*, 106 // skip loop vars 107 // LAMBDA: alloca i32, 108 // LAMBDA: alloca i32, 109 // LAMBDA: alloca i32, 110 // LAMBDA: alloca i32, 111 // LAMBDA: alloca i32, 112 // LAMBDA: alloca i32, 113 // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}}, 114 // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 115 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 116 // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]] 117 // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]], 118 119 // LAMBDA: call void @__kmpc_for_static_init_4( 120 // LAMBDA: store{{.+}}, {{.+}} [[SIVAR_PRIV]], 121 // LAMBDA: call void [[INNER_LAMBDA:@.+]]( 122 // LAMBDA: call void @__kmpc_for_static_fini( 123 // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 124 // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to 125 // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 126 // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 127 // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 128 // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 129 // LAMBDA: {{.+}}, label %[[CASE1:.+]] 130 // LAMBDA: {{.+}}, label %[[CASE2:.+]] 131 // LAMBDA: ] 132 // LAMBDA: [[CASE1]]: 133 // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]], 134 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 135 // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]] 136 // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]], 137 // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 138 // LAMBDA: br 139 // LAMBDA: [[CASE2]]: 140 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 141 // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}} 142 // LAMBDA: br 143 144 sivar += i; 145 146 [&]() { 147 // LAMBDA: define {{.+}} void [[INNER_LAMBDA]]({{.+}} [[ARG_PTR:%.+]]) 148 // LAMBDA: store %{{.+}}* [[ARG_PTR]], %{{.+}}** [[ARG_PTR_REF:%.+]], 149 150 sivar += 4; 151 // LAMBDA: [[ARG_PTR:%.+]] = load %{{.+}}*, %{{.+}}** [[ARG_PTR_REF]] 152 153 // LAMBDA: [[SIVAR_PTR_REF:%.+]] = getelementptr inbounds %{{.+}}, %{{.+}}* [[ARG_PTR]], i{{[0-9]+}} 0, i{{[0-9]+}} 0 154 // LAMBDA: [[SIVAR_REF:%.+]] = load i{{[0-9]+}}*, i{{[0-9]+}}** [[SIVAR_PTR_REF]] 155 // LAMBDA: [[SIVAR_VAL:%.+]] = load i{{[0-9]+}}, i{{[0-9]+}}* [[SIVAR_REF]] 156 // LAMBDA: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], 4 157 // LAMBDA: store i{{[0-9]+}} [[SIVAR_INC]], i{{[0-9]+}}* [[SIVAR_REF]] 158 }(); 159 } 160 }(); 161 return 0; 162 #else 163 #pragma omp target 164 #pragma omp teams distribute parallel for reduction(+: sivar) 165 for (int i = 0; i < 2; ++i) { 166 sivar += i; 167 } 168 return tmain<int>(); 169 #endif 170 } 171 172 // CHECK: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer 173 174 // CHECK: define {{.*}}i{{[0-9]+}} @main() 175 // CHECK: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i8** null, i8** null, i32 0, i32 0) 176 // CHECK: call void @[[OFFL1:.+]](i{{64|32}} %{{.+}}) 177 // CHECK: {{%.+}} = call{{.*}} i32 @[[TMAIN_INT:.+]]() 178 // CHECK: ret 179 180 // CHECK: define{{.*}} void @[[OFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]]) 181 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}, 182 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 183 // CHECK-64: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to 184 // CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]]) 185 // CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_ADDR]]) 186 // CHECK: ret void 187 188 // CHECK: define internal void @[[OUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]]) 189 // Skip global and bound tid vars 190 // CHECK: {{.+}} = alloca i32*, 191 // CHECK: {{.+}} = alloca i32*, 192 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*, 193 // CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}}, 194 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 195 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 196 // CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]] 197 // CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]], 198 199 // CHECK: call void @__kmpc_for_static_init_4( 200 // CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[PAR_OUTL:.+]] to 201 // CHECK: call void @__kmpc_for_static_fini( 202 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 203 // CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to 204 // CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 205 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 206 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 207 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 208 // CHECK: {{.+}}, label %[[CASE1:.+]] 209 // CHECK: {{.+}}, label %[[CASE2:.+]] 210 // CHECK: ] 211 // CHECK: [[CASE1]]: 212 // CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]], 213 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 214 // CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]] 215 // CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]], 216 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 217 // CHECK: br 218 // CHECK: [[CASE2]]: 219 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 220 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}} 221 // CHECK: br 222 223 // CHECK: define internal void @[[PAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]]) 224 // Skip global and bound tid vars, and prev lb and ub 225 // CHECK: {{.+}} = alloca i32*, 226 // CHECK: {{.+}} = alloca i32*, 227 // CHECK: alloca i{{[0-9]+}}, 228 // CHECK: alloca i{{[0-9]+}}, 229 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*, 230 // skip loop vars 231 // CHECK: alloca i32, 232 // CHECK: alloca i32, 233 // CHECK: alloca i32, 234 // CHECK: alloca i32, 235 // CHECK: alloca i32, 236 // CHECK: alloca i32, 237 // CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}}, 238 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 239 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 240 // CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]] 241 // CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]], 242 243 // CHECK: call void @__kmpc_for_static_init_4( 244 // CHECK: store{{.+}}, {{.+}} [[SIVAR_PRIV]], 245 // CHECK: call void @__kmpc_for_static_fini( 246 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 247 // CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to 248 // CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 249 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 250 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 251 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 252 // CHECK: {{.+}}, label %[[CASE1:.+]] 253 // CHECK: {{.+}}, label %[[CASE2:.+]] 254 // CHECK: ] 255 // CHECK: [[CASE1]]: 256 // CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]], 257 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 258 // CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]] 259 // CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]], 260 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 261 // CHECK: br 262 // CHECK: [[CASE2]]: 263 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 264 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}} 265 // CHECK: br 266 267 // CHECK: define{{.*}} i{{[0-9]+}} @[[TMAIN_INT]]() 268 // CHECK: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, 269 // CHECK: call void @[[TOFFL1:.+]]({{.+}}) 270 // CHECK: ret 271 272 // CHECK: define{{.*}} void @[[TOFFL1]](i{{64|32}} [[TVAR_ARG:%.+]]) 273 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}, 274 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]], 275 // CHECK-64: [[TVAR_CONV:%.+]] = bitcast{{.+}} [[TVAR_ADDR]] to 276 // CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_CONV]]) 277 // CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_ADDR]]) 278 // CHECK: ret void 279 280 // CHECK: define internal void @[[TOUTL1]]({{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]]) 281 // Skip global and bound tid vars 282 // CHECK: {{.+}} = alloca i32*, 283 // CHECK: {{.+}} = alloca i32*, 284 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*, 285 // CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}}, 286 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 287 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]], 288 // CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]] 289 // CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]], 290 291 // CHECK: call void @__kmpc_for_static_init_4( 292 // CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[TPAR_OUTL:.+]] to 293 // CHECK: call void @__kmpc_for_static_fini( 294 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 295 // CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to 296 // CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 297 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 298 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 299 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 300 // CHECK: {{.+}}, label %[[CASE1:.+]] 301 // CHECK: {{.+}}, label %[[CASE2:.+]] 302 // CHECK: ] 303 // CHECK: [[CASE1]]: 304 // CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]], 305 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]], 306 // CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]] 307 // CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]], 308 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 309 // CHECK: br 310 // CHECK: [[CASE2]]: 311 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]], 312 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]] monotonic, align {{.+}} 313 // CHECK: br 314 315 // CHECK: define internal void @[[TPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]]) 316 // Skip global and bound tid vars, and prev lb and ub vars 317 // CHECK: {{.+}} = alloca i32*, 318 // CHECK: {{.+}} = alloca i32*, 319 // CHECK: alloca i{{[0-9]+}}, 320 // CHECK: alloca i{{[0-9]+}}, 321 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*, 322 // skip loop vars 323 // CHECK: alloca i32, 324 // CHECK: alloca i32, 325 // CHECK: alloca i32, 326 // CHECK: alloca i32, 327 // CHECK: alloca i32, 328 // CHECK: alloca i32, 329 // CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}}, 330 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 331 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]], 332 // CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]] 333 // CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]], 334 335 // CHECK: call void @__kmpc_for_static_init_4( 336 // CHECK: store{{.+}}, {{.+}} [[TVAR_PRIV]], 337 // CHECK: call void @__kmpc_for_static_fini( 338 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 339 // CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to 340 // CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 341 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 342 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 343 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 344 // CHECK: {{.+}}, label %[[CASE1:.+]] 345 // CHECK: {{.+}}, label %[[CASE2:.+]] 346 // CHECK: ] 347 // CHECK: [[CASE1]]: 348 // CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]], 349 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]], 350 // CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]] 351 // CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]], 352 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 353 // CHECK: br 354 // CHECK: [[CASE2]]: 355 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]], 356 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]] monotonic, align {{.+}} 357 // CHECK: br 358 #endif 359