Lines Matching refs:AMDGPUCodeGenPrepareImpl

98 class AMDGPUCodeGenPrepareImpl  class
99 : public InstVisitor<AMDGPUCodeGenPrepareImpl, bool> {
323 AMDGPUCodeGenPrepareImpl Impl;
346 bool AMDGPUCodeGenPrepareImpl::run(Function &F) { in run()
375 unsigned AMDGPUCodeGenPrepareImpl::getBaseElementBitWidth(const Type *T) const { in getBaseElementBitWidth()
383 Type *AMDGPUCodeGenPrepareImpl::getI32Ty(IRBuilder<> &B, const Type *T) const { in getI32Ty()
391 bool AMDGPUCodeGenPrepareImpl::isSigned(const BinaryOperator &I) const { in isSigned()
396 bool AMDGPUCodeGenPrepareImpl::isSigned(const SelectInst &I) const { in isSigned()
401 bool AMDGPUCodeGenPrepareImpl::needsPromotionToI32(const Type *T) const { in needsPromotionToI32()
421 bool AMDGPUCodeGenPrepareImpl::isLegalFloatingTy(const Type *Ty) const { in isLegalFloatingTy()
454 bool AMDGPUCodeGenPrepareImpl::canWidenScalarExtLoad(LoadInst &I) const { in canWidenScalarExtLoad()
463 bool AMDGPUCodeGenPrepareImpl::promoteUniformOpToI32(BinaryOperator &I) const { in promoteUniformOpToI32()
510 bool AMDGPUCodeGenPrepareImpl::promoteUniformOpToI32(ICmpInst &I) const { in promoteUniformOpToI32()
537 bool AMDGPUCodeGenPrepareImpl::promoteUniformOpToI32(SelectInst &I) const { in promoteUniformOpToI32()
566 bool AMDGPUCodeGenPrepareImpl::promoteUniformBitreverseToI32( in promoteUniformBitreverseToI32()
592 unsigned AMDGPUCodeGenPrepareImpl::numBitsUnsigned(Value *Op) const { in numBitsUnsigned()
596 unsigned AMDGPUCodeGenPrepareImpl::numBitsSigned(Value *Op) const { in numBitsSigned()
627 bool AMDGPUCodeGenPrepareImpl::replaceMulWithMul24(BinaryOperator &I) const { in replaceMulWithMul24()
705 bool AMDGPUCodeGenPrepareImpl::foldBinOpIntoSelect(BinaryOperator &BO) const { in foldBinOpIntoSelect()
767 AMDGPUCodeGenPrepareImpl::getFrexpResults(IRBuilder<> &Builder, in getFrexpResults()
787 Value *AMDGPUCodeGenPrepareImpl::emitRcpIEEE1ULP(IRBuilder<> &Builder, in emitRcpIEEE1ULP()
811 Value *AMDGPUCodeGenPrepareImpl::emitFrexpDiv(IRBuilder<> &Builder, Value *LHS, in emitFrexpDiv()
838 Value *AMDGPUCodeGenPrepareImpl::emitSqrtIEEE2ULP(IRBuilder<> &Builder, in emitSqrtIEEE2ULP()
888 bool AMDGPUCodeGenPrepareImpl::canOptimizeWithRsq(const FPMathOperator *SqrtOp, in canOptimizeWithRsq()
900 Value *AMDGPUCodeGenPrepareImpl::optimizeWithRsq( in optimizeWithRsq()
943 AMDGPUCodeGenPrepareImpl::optimizeWithRcp(IRBuilder<> &Builder, Value *Num, in optimizeWithRcp()
1006 Value *AMDGPUCodeGenPrepareImpl::optimizeWithFDivFast( in optimizeWithFDivFast()
1031 Value *AMDGPUCodeGenPrepareImpl::visitFDivElement( in visitFDivElement()
1072 bool AMDGPUCodeGenPrepareImpl::visitFDiv(BinaryOperator &FDiv) { in visitFDiv()
1191 int AMDGPUCodeGenPrepareImpl::getDivNumBits(BinaryOperator &I, Value *Num, in getDivNumBits()
1212 Value *AMDGPUCodeGenPrepareImpl::expandDivRem24(IRBuilder<> &Builder, in expandDivRem24()
1222 Value *AMDGPUCodeGenPrepareImpl::expandDivRem24Impl( in expandDivRem24Impl()
1324 bool AMDGPUCodeGenPrepareImpl::divHasSpecialOptimization(BinaryOperator &I, in divHasSpecialOptimization()
1367 Value *AMDGPUCodeGenPrepareImpl::expandDivRem32(IRBuilder<> &Builder, in expandDivRem32()
1492 Value *AMDGPUCodeGenPrepareImpl::shrinkDivRem64(IRBuilder<> &Builder, in shrinkDivRem64()
1523 void AMDGPUCodeGenPrepareImpl::expandDivRem64(BinaryOperator &I) const { in expandDivRem64()
1539 bool AMDGPUCodeGenPrepareImpl::visitBinaryOperator(BinaryOperator &I) { in visitBinaryOperator()
1623 bool AMDGPUCodeGenPrepareImpl::visitLoadInst(LoadInst &I) { in visitLoadInst()
1669 bool AMDGPUCodeGenPrepareImpl::visitICmpInst(ICmpInst &I) { in visitICmpInst()
1679 bool AMDGPUCodeGenPrepareImpl::visitSelectInst(SelectInst &I) { in visitSelectInst()
1804 bool AMDGPUCodeGenPrepareImpl::canBreakPHINode(const PHINode &I) { in canBreakPHINode()
1929 bool AMDGPUCodeGenPrepareImpl::visitPHINode(PHINode &I) { in visitPHINode()
2013 bool AMDGPUCodeGenPrepareImpl::visitIntrinsicInst(IntrinsicInst &I) { in visitIntrinsicInst()
2026 bool AMDGPUCodeGenPrepareImpl::visitBitreverseIntrinsicInst(IntrinsicInst &I) { in visitBitreverseIntrinsicInst()
2041 Value *AMDGPUCodeGenPrepareImpl::matchFractPat(IntrinsicInst &I) { in matchFractPat()
2075 Value *AMDGPUCodeGenPrepareImpl::applyFractPat(IRBuilder<> &Builder, in applyFractPat()
2091 bool AMDGPUCodeGenPrepareImpl::visitMinNum(IntrinsicInst &I) { in visitMinNum()
2120 bool AMDGPUCodeGenPrepareImpl::visitSqrt(IntrinsicInst &Sqrt) { in visitSqrt()
2210 AMDGPUCodeGenPrepareImpl Impl; in run()