1 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64 2 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 3 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64 4 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32 5 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s 6 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32 7 8 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s 9 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 10 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s 11 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY0 %s 12 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s 13 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY0 %s 14 // SIMD-ONLY0-NOT: {{__kmpc|__tgt}} 15 16 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64 17 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 18 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64 19 20 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck --check-prefix SIMD-ONLY1 %s 21 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s 22 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck --check-prefix SIMD-ONLY1 %s 23 // SIMD-ONLY1-NOT: {{__kmpc|__tgt}} 24 25 // expected-no-diagnostics 26 #ifndef HEADER 27 #define HEADER 28 29 template <typename T> 30 T tmain() { 31 T t_var = T(); 32 T vec[] = {1, 2}; 33 #pragma omp target 34 #pragma omp teams distribute simd reduction(+: t_var) 35 for (int i = 0; i < 2; ++i) { 36 t_var += (T) i; 37 } 38 return T(); 39 } 40 41 int main() { 42 static int sivar; 43 #ifdef LAMBDA 44 // LAMBDA: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer 45 46 // LAMBDA-LABEL: @main 47 // LAMBDA: call void [[OUTER_LAMBDA:@.+]]( 48 [&]() { 49 // LAMBDA: define{{.*}} internal{{.*}} void [[OUTER_LAMBDA]]( 50 // LAMBDA: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i8** null, i8** null, i32 0, i32 1) 51 // LAMBDA: call void @[[LOFFL1:.+]]( 52 // LAMBDA: ret 53 #pragma omp target 54 #pragma omp teams distribute simd reduction(+: sivar) 55 for (int i = 0; i < 2; ++i) { 56 // LAMBDA: define{{.*}} internal{{.*}} void @[[LOFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]]) 57 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}, 58 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 59 // LAMBDA: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to 60 // LAMBDA: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[LOUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]]) 61 // LAMBDA: ret void 62 63 // LAMBDA: define internal void @[[LOUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]]) 64 // Skip global and bound tid vars 65 // LAMBDA: {{.+}} = alloca i32*, 66 // LAMBDA: {{.+}} = alloca i32*, 67 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*, 68 // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}}, 69 // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 70 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 71 // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]] 72 // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]], 73 74 // LAMBDA: call void @__kmpc_for_static_init_4( 75 // LAMBDA: store{{.+}}, {{.+}} [[SIVAR_PRIV]], 76 // LAMBDA: call void [[INNER_LAMBDA:@.+]]( 77 // LAMBDA: call void @__kmpc_for_static_fini( 78 // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 79 // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to 80 // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 81 // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 82 // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 83 // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 84 // LAMBDA: {{.+}}, label %[[CASE1:.+]] 85 // LAMBDA: {{.+}}, label %[[CASE2:.+]] 86 // LAMBDA: ] 87 // LAMBDA: [[CASE1]]: 88 // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]], 89 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 90 // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]] 91 // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]], 92 // LAMBDA: call void @__kmpc_end_reduce({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 93 // LAMBDA: br 94 // LAMBDA: [[CASE2]]: 95 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 96 // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}} 97 // LAMBDA: call void @__kmpc_end_reduce({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 98 // LAMBDA: br 99 100 sivar += i; 101 102 [&]() { 103 // LAMBDA: define {{.+}} void [[INNER_LAMBDA]]({{.+}} [[ARG_PTR:%.+]]) 104 // LAMBDA: store %{{.+}}* [[ARG_PTR]], %{{.+}}** [[ARG_PTR_REF:%.+]], 105 106 sivar += 4; 107 // LAMBDA: [[ARG_PTR:%.+]] = load %{{.+}}*, %{{.+}}** [[ARG_PTR_REF]] 108 109 // LAMBDA: [[SIVAR_PTR_REF:%.+]] = getelementptr inbounds %{{.+}}, %{{.+}}* [[ARG_PTR]], i{{[0-9]+}} 0, i{{[0-9]+}} 0 110 // LAMBDA: [[SIVAR_REF:%.+]] = load i{{[0-9]+}}*, i{{[0-9]+}}** [[SIVAR_PTR_REF]] 111 // LAMBDA: [[SIVAR_VAL:%.+]] = load i{{[0-9]+}}, i{{[0-9]+}}* [[SIVAR_REF]] 112 // LAMBDA: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], 4 113 // LAMBDA: store i{{[0-9]+}} [[SIVAR_INC]], i{{[0-9]+}}* [[SIVAR_REF]] 114 }(); 115 } 116 }(); 117 return 0; 118 #else 119 #pragma omp target 120 #pragma omp teams distribute simd reduction(+: sivar) 121 for (int i = 0; i < 2; ++i) { 122 sivar += i; 123 } 124 return tmain<int>(); 125 #endif 126 } 127 128 // CHECK: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer 129 130 // CHECK: define {{.*}}i{{[0-9]+}} @main() 131 // CHECK: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i8** null, i8** null, i32 0, i32 1) 132 // CHECK: call void @[[OFFL1:.+]](i{{64|32}} %{{.+}}) 133 // CHECK: {{%.+}} = call{{.*}} i32 @[[TMAIN_INT:.+]]() 134 // CHECK: ret 135 136 // CHECK: define{{.*}} void @[[OFFL1]](i{{64|32}} [[SIVAR_ARG:%.+]]) 137 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}, 138 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 139 // CHECK-64: [[SIVAR_CONV:%.+]] = bitcast{{.+}} [[SIVAR_ADDR]] to 140 // CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_CONV]]) 141 // CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_ADDR]]) 142 // CHECK: ret void 143 144 // CHECK: define internal void @[[OUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]]) 145 // Skip global and bound tid vars 146 // CHECK: {{.+}} = alloca i32*, 147 // CHECK: {{.+}} = alloca i32*, 148 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}}*, 149 // CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}}, 150 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 151 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]], 152 // CHECK: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]] 153 // CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]], 154 155 // CHECK: call void @__kmpc_for_static_init_4( 156 // CHECK: store{{.+}}, {{.+}} [[SIVAR_PRIV]], 157 // CHECK: call void @__kmpc_for_static_fini( 158 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 159 // CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to 160 // CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 161 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 162 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 163 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 164 // CHECK: {{.+}}, label %[[CASE1:.+]] 165 // CHECK: {{.+}}, label %[[CASE2:.+]] 166 // CHECK: ] 167 // CHECK: [[CASE1]]: 168 // CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]], 169 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 170 // CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]] 171 // CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]], 172 // CHECK: call void @__kmpc_end_reduce({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 173 // CHECK: br 174 // CHECK: [[CASE2]]: 175 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]], 176 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]] monotonic, align {{.+}} 177 // CHECK: call void @__kmpc_end_reduce({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 178 // CHECK: br 179 180 181 // CHECK: define{{.*}} i{{[0-9]+}} @[[TMAIN_INT]]() 182 // CHECK: call i32 @__tgt_target_teams_mapper(%struct.ident_t* @{{.+}}, i64 -1, i8* @{{[^,]+}}, i32 1, 183 // CHECK: call void @[[TOFFL1:.+]]({{.+}}) 184 // CHECK: ret 185 186 // CHECK: define{{.*}} void @[[TOFFL1]](i{{64|32}} [[TVAR_ARG:%.+]]) 187 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}, 188 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]], 189 // CHECK-64: [[TVAR_CONV:%.+]] = bitcast{{.+}} [[TVAR_ADDR]] to 190 // CHECK-64: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_CONV]]) 191 // CHECK-32: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_ADDR]]) 192 // CHECK: ret void 193 194 // CHECK: define internal void @[[TOUTL1]]({{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]]) 195 // Skip global and bound tid vars 196 // CHECK: {{.+}} = alloca i32*, 197 // CHECK: {{.+}} = alloca i32*, 198 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}}*, 199 // CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}}, 200 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}], 201 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]], 202 // CHECK: [[TVAR_REF:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]] 203 // CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]], 204 205 // CHECK: call void @__kmpc_for_static_init_4( 206 // CHECK: store{{.+}}, {{.+}} [[TVAR_PRIV]], 207 // CHECK: call void @__kmpc_for_static_fini( 208 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]], 209 // CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to 210 // CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]], 211 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to 212 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]]) 213 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [ 214 // CHECK: {{.+}}, label %[[CASE1:.+]] 215 // CHECK: {{.+}}, label %[[CASE2:.+]] 216 // CHECK: ] 217 // CHECK: [[CASE1]]: 218 // CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]], 219 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]], 220 // CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]] 221 // CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]], 222 // CHECK: call void @__kmpc_end_reduce({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 223 // CHECK: br 224 // CHECK: [[CASE2]]: 225 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]], 226 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]] monotonic, align {{.+}} 227 // CHECK: call void @__kmpc_end_reduce({{.+}}, {{.+}}, {{.+}} [[RED_VAR]]) 228 // CHECK: br 229 230 // CHECK: !{!"llvm.loop.vectorize.enable", i1 true} 231 #endif 232