华为CANN异或求和算子
ReduceXorSum【免费下载链接】asc-devkit本项目是CANN 推出的昇腾AI处理器专用的算子程序开发语言原生支持C和C标准规范主要由类库和语言扩展层构成提供多层级API满足多维场景算子开发诉求。项目地址: https://gitcode.com/cann/asc-devkit产品支持情况产品是否支持Ascend 950PR/Ascend 950DT√Atlas A3 训练系列产品 / Atlas A3 推理系列产品√Atlas A2 训练系列产品 / Atlas A2 推理系列产品√功能说明按照元素执行Xor按位异或运算并将计算结果ReduceSum求和。[!NOTE]说明注意当最终计算结果超出int16范围[-3276832767]后将输出-32768 或者 32767。函数原型通过sharedTmpBuffer入参传入临时空间template typename T, bool isReuseSource false __aicore__ inline void ReduceXorSum(LocalTensorT dstTensor, const LocalTensorT src0Tensor, const LocalTensorT src1Tensor, LocalTensoruint8_t sharedTmpBuffer, const uint32_t calCount)接口框架申请临时空间template typename T, bool isReuseSource false __aicore__ inline void ReduceXorSum(LocalTensorT dstTensor, const LocalTensorT src0Tensor, const LocalTensorT src1Tensor, const uint32_t calCount);由于该接口的内部实现中需要保存异或结果以及进行其他运算需要额外的临时空间来存储计算过程中的中间变量。临时空间支持开发者通过sharedTmpBuffer入参传入和接口框架申请两种方式。通过sharedTmpBuffer入参传入使用该tensor作为临时空间进行处理接口框架不再申请。该方式开发者可以自行管理sharedTmpBuffer内存空间并在接口调用完成后复用该部分内存内存不会反复申请释放灵活性较高内存利用率也较高。接口框架申请临时空间开发者无需申请但是需要预留临时空间的大小。通过sharedTmpBuffer传入的情况开发者需要为tensor申请空间接口框架申请的方式开发者需要预留临时空间。临时空间大小BufferSize的获取方式如下通过GetReduceXorSumMaxMinTmpSize中提供的接口获取需要预留空间范围的大小。参数说明表 1模板参数说明参数名描述T操作数的数据类型。Ascend 950PR/Ascend 950DT支持的数据类型为int16_t。Atlas A3 训练系列产品 / Atlas A3 推理系列产品支持的数据类型为int16_t。Atlas A2 训练系列产品 / Atlas A2 推理系列产品支持的数据类型为int16_t。isReuseSource是否允许修改源操作数默认值为false。如果开发者允许源操作数被改写可以使能该参数使能后能够节省部分内存空间。设置为true则本接口内部计算时复用src0Tensor和src1Tensor的内存空间节省内存空间设置为false则本接口内部计算时不复用src0Tensor和src1Tensor的内存空间。isReuseSource的使用样例请参考更多样例。表 2接口参数说明参数名输入/输出描述dstTensor输出目的操作数。类型为LocalTensor支持的TPosition为VECIN/VECCALC/VECOUT。输出值需要sizeof(T)大小的空间进行保存。开发者要根据该大小和框架的对齐要求来为dstTensor分配实际内存空间。说明注意遵循框架对内存开辟的要求开辟内存的大小满足32Byte对齐即sizeof(T)不是32Byte对齐时需要向上进行32Byte对齐。为了对齐而多开辟的内存空间不填值为一些随机值。src0Tensor输入源操作数0。类型为LocalTensor支持的TPosition为VECIN/VECCALC/VECOUT。源操作数的数据类型需要与目的操作数保持一致。src1Tensor输入源操作数1。类型为LocalTensor支持的TPosition为VECIN/VECCALC/VECOUT。源操作数的数据类型需要与目的操作数保持一致。sharedTmpBuffer输入临时缓存。类型为LocalTensor支持的TPosition为VECIN/VECCALC/VECOUT。用于ReduceXorSum计算时存储中间变量由开发者提供。临时空间大小BufferSize的获取方式请参考GetReduceXorSumMaxMinTmpSize。calCount输入参与计算的元素个数。返回值说明无约束说明操作数地址对齐要求请参见通用地址对齐约束。不支持源操作数与目的操作数地址重叠。不支持sharedTmpBuffer与源操作数和目的操作数地址重叠。calCount需要保证小于或等于src0Tensor和src1Tensor的元素范围。当最终计算结果超出int16范围[-3276832767]后将输出-32768 或者 32767。调用示例AscendC::TPipe pipe; AscendC::TQueAscendC::TPosition::VECIN, 1 inQueueX; AscendC::TQueAscendC::TPosition::VECIN, 1 inQueueY; AscendC::TQueAscendC::TPosition::VECOUT, 1 outQueue; AscendC::TQueAscendC::TPosition::VECCALC, 1 tmpQue; pipe.InitBuffer(inQueueX, 1, 32 * sizeof(int16_t)); pipe.InitBuffer(inQueueY, 1, 32 * sizeof(int16_t)); pipe.InitBuffer(outQueue, 1, 32); pipe.InitBuffer(tmpQue, 1, bufferSize); // bufferSize 通过Host侧tiling参数获取 AscendC::LocalTensorint16_t dstLocal outQueue.AllocTensorint16_t(); AscendC::LocalTensorint16_t src0Local inQueueX.AllocTensorint16_t(); AscendC::LocalTensorint16_t src1Local inQueueY.AllocTensorint16_t(); AscendC::LocalTensoruint8_t sharedTmpBuffer tmpQue.AllocTensoruint8_t(); // 不使用输入内存输入shape信息为32, 算子输入的数据类型为int16_t, 实际计算个数为前32 AscendC::ReduceXorSumint16_t, false(dstLocal, src0Local, src1Local, sharedTmpBuffer, 32);结果示例如下输入输出的数据类型为int16_t 输入数据(src0Local): [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0] 输入数据(src1Local): [1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1] 输出数据(dstLocal): [32 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0] // 仅32为有效值【免费下载链接】asc-devkit本项目是CANN 推出的昇腾AI处理器专用的算子程序开发语言原生支持C和C标准规范主要由类库和语言扩展层构成提供多层级API满足多维场景算子开发诉求。项目地址: https://gitcode.com/cann/asc-devkit创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考