1 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
2 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
3 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
4 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
5 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
6 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
7 
8 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s
9 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
10 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s
11 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s
12 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
13 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s
14 // SIMD-ONLY0-NOT: {{__kmpc|__tgt}}
15 
16 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
17 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
18 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++  -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
19 
20 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY1 %s
21 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
22 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++  -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY1 %s
23 // SIMD-ONLY1-NOT: {{__kmpc|__tgt}}
24 
25 // expected-no-diagnostics
26 #ifndef HEADER
27 #define HEADER
28 
29 template <typename T>
30 T tmain() {
31   T t_var = T();
32   T vec[] = {1, 2};
33 #pragma omp target
34 #pragma omp teams distribute parallel for reduction(+: t_var)
35   for (int i = 0; i < 2; ++i) {
36     t_var += (T) i;
37   }
38   return T();
39 }
40 
41 int main() {
42   static int sivar;
43 #ifdef LAMBDA
44   // LAMBDA: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
45 
46   // LAMBDA-LABEL: @main
47   // LAMBDA: call void [[OUTER_LAMBDA:@.+]](
48   [&]() {
49     // LAMBDA: define{{.*}} internal{{.*}} void [[OUTER_LAMBDA]](
50     // LAMBDA: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i8** null, i8** null, i32 0, i32 0)
51     // LAMBDA: call void @[[LOFFL1:.+]](
52     // LAMBDA:  ret
53 #pragma omp target
54 #pragma omp teams distribute parallel for reduction(+: sivar)
55   for (int i = 0; i < 2; ++i) {
56     // LAMBDA: define{{.*}} internal{{.*}} void @[[LOFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]])
57     // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
58     // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
59     // LAMBDA: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to
60     // LAMBDA: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[LOUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]])
61     // LAMBDA: ret void
62 
63     // LAMBDA: define internal void @[[LOUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
64     // Skip global and bound tid vars
65     // LAMBDA: {{.+}} = alloca i32*,
66     // LAMBDA: {{.+}} = alloca i32*,
67     // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
68     // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
69     // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
70     // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
71     // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
72     // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
73 
74     // LAMBDA: call void @__kmpc_for_static_init_4(
75     // LAMBDA: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[LPAR_OUTL:.+]] to
76     // LAMBDA: call void @__kmpc_for_static_fini(
77     // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
78     // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
79     // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
80     // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
81     // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
82     // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
83     // LAMBDA: {{.+}}, label %[[CASE1:.+]]
84     // LAMBDA: {{.+}}, label %[[CASE2:.+]]
85     // LAMBDA: ]
86     // LAMBDA: [[CASE1]]:
87     // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
88     // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
89     // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
90     // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
91     // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
92     // LAMBDA: br
93     // LAMBDA: [[CASE2]]:
94     // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
95     // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}}
96     // LAMBDA: br
97 
98     // LAMBDA: define internal void @[[LPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
99 
100     // Skip global and bound tid vars, and prev lb and ub vars
101     // LAMBDA: {{.+}} = alloca i32*,
102     // LAMBDA: {{.+}} = alloca i32*,
103     // LAMBDA: alloca i{{[0-9]+}},
104     // LAMBDA: alloca i{{[0-9]+}},
105     // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
106     // skip loop vars
107     // LAMBDA: alloca i32,
108     // LAMBDA: alloca i32,
109     // LAMBDA: alloca i32,
110     // LAMBDA: alloca i32,
111     // LAMBDA: alloca i32,
112     // LAMBDA: alloca i32,
113     // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
114     // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
115     // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
116     // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
117     // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
118 
119     // LAMBDA: call void @__kmpc_for_static_init_4(
120      // LAMBDA: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
121     // LAMBDA: call void [[INNER_LAMBDA:@.+]](
122     // LAMBDA: call void @__kmpc_for_static_fini(
123     // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
124     // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
125     // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
126     // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
127     // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
128     // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
129     // LAMBDA: {{.+}}, label %[[CASE1:.+]]
130     // LAMBDA: {{.+}}, label %[[CASE2:.+]]
131     // LAMBDA: ]
132     // LAMBDA: [[CASE1]]:
133     // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
134     // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
135     // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
136     // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
137     // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
138     // LAMBDA: br
139     // LAMBDA: [[CASE2]]:
140     // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
141     // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}}
142     // LAMBDA: br
143 
144     sivar += i;
145 
146     [&]() {
147       // LAMBDA: define {{.+}} void [[INNER_LAMBDA]]({{.+}} [[ARG_PTR:%.+]])
148       // LAMBDA: store %{{.+}}* [[ARG_PTR]], %{{.+}}** [[ARG_PTR_REF:%.+]],
149 
150       sivar += 4;
151       // LAMBDA: [[ARG_PTR:%.+]] = load %{{.+}}*, %{{.+}}** [[ARG_PTR_REF]]
152 
153       // LAMBDA: [[SIVAR_PTR_REF:%.+]] = getelementptr inbounds %{{.+}}, %{{.+}}* [[ARG_PTR]], i{{[0-9]+}} 0, i{{[0-9]+}} 0
154       // LAMBDA: [[SIVAR_REF:%.+]] = load i{{[0-9]+}}*, i{{[0-9]+}}** [[SIVAR_PTR_REF]]
155       // LAMBDA: [[SIVAR_VAL:%.+]] = load i{{[0-9]+}}, i{{[0-9]+}}* [[SIVAR_REF]]
156       // LAMBDA: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], 4
157       // LAMBDA: store i{{[0-9]+}} [[SIVAR_INC]], i{{[0-9]+}}* [[SIVAR_REF]]
158     }();
159   }
160   }();
161   return 0;
162 #else
163 #pragma omp target
164 #pragma omp teams distribute parallel for reduction(+: sivar)
165   for (int i = 0; i < 2; ++i) {
166     sivar += i;
167   }
168   return tmain<int>();
169 #endif
170 }
171 
172 // CHECK: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
173 
174 // CHECK: define {{.*}}i{{[0-9]+}} @main()
175 // CHECK: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i8** null, i8** null, i32 0, i32 0)
176 // CHECK: call void @[[OFFL1:.+]](i{{64|32}} %{{.+}})
177 // CHECK: {{%.+}} = call{{.*}} i32 @[[TMAIN_INT:.+]]()
178 // CHECK:  ret
179 
180 // CHECK: define{{.*}} void @[[OFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]])
181 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
182 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
183 // CHECK-64: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to
184 // CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]])
185 // CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_ADDR]])
186 // CHECK: ret void
187 
188 // CHECK: define internal void @[[OUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
189 // Skip global and bound tid vars
190 // CHECK: {{.+}} = alloca i32*,
191 // CHECK: {{.+}} = alloca i32*,
192 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
193 // CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
194 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
195 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
196 // CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
197 // CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
198 
199 // CHECK: call void @__kmpc_for_static_init_4(
200 // CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[PAR_OUTL:.+]] to
201 // CHECK: call void @__kmpc_for_static_fini(
202 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
203 // CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
204 // CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
205 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
206 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
207 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
208 // CHECK: {{.+}}, label %[[CASE1:.+]]
209 // CHECK: {{.+}}, label %[[CASE2:.+]]
210 // CHECK: ]
211 // CHECK: [[CASE1]]:
212 // CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
213 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
214 // CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
215 // CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
216 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
217 // CHECK: br
218 // CHECK: [[CASE2]]:
219 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
220 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}}
221 // CHECK: br
222 
223 // CHECK: define internal void @[[PAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
224 // Skip global and bound tid vars, and prev lb and ub
225 // CHECK: {{.+}} = alloca i32*,
226 // CHECK: {{.+}} = alloca i32*,
227 // CHECK: alloca i{{[0-9]+}},
228 // CHECK: alloca i{{[0-9]+}},
229 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*,
230 // skip loop vars
231 // CHECK: alloca i32,
232 // CHECK: alloca i32,
233 // CHECK: alloca i32,
234 // CHECK: alloca i32,
235 // CHECK: alloca i32,
236 // CHECK: alloca i32,
237 // CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
238 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
239 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
240 // CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
241 // CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
242 
243 // CHECK: call void @__kmpc_for_static_init_4(
244 // CHECK: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
245 // CHECK: call void @__kmpc_for_static_fini(
246 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
247 // CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
248 // CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
249 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
250 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
251 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
252 // CHECK: {{.+}}, label %[[CASE1:.+]]
253 // CHECK: {{.+}}, label %[[CASE2:.+]]
254 // CHECK: ]
255 // CHECK: [[CASE1]]:
256 // CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
257 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
258 // CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
259 // CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
260 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
261 // CHECK: br
262 // CHECK: [[CASE2]]:
263 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
264 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}}
265 // CHECK: br
266 
267 // CHECK: define{{.*}} i{{[0-9]+}} @[[TMAIN_INT]]()
268 // CHECK: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1,
269 // CHECK: call void @[[TOFFL1:.+]]({{.+}})
270 // CHECK:  ret
271 
272 // CHECK: define{{.*}} void @[[TOFFL1]](i{{64|32}} [[TVAR_ARG:%.+]])
273 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}},
274 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
275 // CHECK-64: [[TVAR_CONV:%.+]] = bitcast{{.+}} [[TVAR_ADDR]] to
276 // CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_CONV]])
277 // CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_ADDR]])
278 // CHECK: ret void
279 
280 // CHECK: define internal void @[[TOUTL1]]({{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
281 // Skip global and bound tid vars
282 // CHECK: {{.+}} = alloca i32*,
283 // CHECK: {{.+}} = alloca i32*,
284 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*,
285 // CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
286 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
287 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
288 // CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]]
289 // CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
290 
291 // CHECK: call void @__kmpc_for_static_init_4(
292 // CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[TPAR_OUTL:.+]] to
293 // CHECK: call void @__kmpc_for_static_fini(
294 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
295 // CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
296 // CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
297 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
298 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
299 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
300 // CHECK: {{.+}}, label %[[CASE1:.+]]
301 // CHECK: {{.+}}, label %[[CASE2:.+]]
302 // CHECK: ]
303 // CHECK: [[CASE1]]:
304 // CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
305 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
306 // CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
307 // CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
308 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
309 // CHECK: br
310 // CHECK: [[CASE2]]:
311 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
312 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]] monotonic, align {{.+}}
313 // CHECK: br
314 
315 // CHECK: define internal void @[[TPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
316 // Skip global and bound tid vars, and prev lb and ub vars
317 // CHECK: {{.+}} = alloca i32*,
318 // CHECK: {{.+}} = alloca i32*,
319 // CHECK: alloca i{{[0-9]+}},
320 // CHECK: alloca i{{[0-9]+}},
321 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*,
322 // skip loop vars
323 // CHECK: alloca i32,
324 // CHECK: alloca i32,
325 // CHECK: alloca i32,
326 // CHECK: alloca i32,
327 // CHECK: alloca i32,
328 // CHECK: alloca i32,
329 // CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
330 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
331 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
332 // CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]]
333 // CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
334 
335 // CHECK: call void @__kmpc_for_static_init_4(
336 // CHECK: store{{.+}}, {{.+}} [[TVAR_PRIV]],
337 // CHECK: call void @__kmpc_for_static_fini(
338 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
339 // CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
340 // CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
341 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
342 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
343 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
344 // CHECK: {{.+}}, label %[[CASE1:.+]]
345 // CHECK: {{.+}}, label %[[CASE2:.+]]
346 // CHECK: ]
347 // CHECK: [[CASE1]]:
348 // CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
349 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
350 // CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
351 // CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
352 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
353 // CHECK: br
354 // CHECK: [[CASE2]]:
355 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
356 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]] monotonic, align {{.+}}
357 // CHECK: br
358 #endif
359