根据检索到的材料,关于“mixed precision training”的论文主要有以下几篇:
-
Mixed-precision training of deep neural networks using computational memory
- 发布时间: 2017-12-04
- 网址: arxiv.org
- 内容摘要: 论文提出了一种混合精度架构,结合计算存储单元存储权重和数字处理单元进行乘累加操作,同时利用额外的内存单元进行高精度权重更新。通过使用非线性随机模型实现计算存储单元,该架构在MNIST手写数字分类问题上实现了97.40%的测试准确率。
-
Mixed Precision Post Training Quantization of Neural Networks with Sensitivity Guided Search
- 发布时间: 2023-02-02
- 网址: arxiv.org
- 内容摘要: 论文提出了使用后训练混合精度量化方法来有效确定不同张量在ML模型中的量化配置,并通过分析三种敏感性指标来指导配置搜索。实验结果表明,该方法可以在保证不超过1%的精度损失的前提下,实现高达27.59%和34.31%的延迟减少。
-
Adaptive Loss Scaling for Mixed Precision Training
- 发布时间: 2019-09-25
- 网址: arxiv.org
- 内容摘要: 论文介绍了一种名为自适应损失缩放的方法,通过在训练过程中自动计算每个层的损失缩放值,以更有效地处理数值下溢问题,从而简化了混合精度训练的使用,并提高了训练速度和准确性。
-
Mixed Precision Training
- 发布时间: 2017-10-10
- 网址: arxiv.org
- 内容摘要: 论文提出了使用IEEE半精度浮点数进行深度神经网络训练的方法,并提出两种技术来处理半精度浮点数造成的信息损失。实验表明,这种方法可以显著降低内存消耗,并适用于大规模模型。
-
Class Difficulty based Mixed Precision Quantization for Low Complexity CNN Training
- 发布时间: 2022-10-19
- 网址: www.semanticscholar.org
- 内容摘要: 论文提出了一种基于训练难度的混合精度训练方法,该方法根据不同类别的训练难易程度,使用低比特量化进行易训练类别的训练,而使用高比特量化进行难训练类别的训练。实验结果表明,该方法可以显著提高压缩比,同时保持相同的准确率。
-
Mixed Precision Training With 8-bit Floating Point
- 发布时间: 2019-05-29
- 网址: arxiv.org
- 内容摘要: 论文提出了一种使用8位浮点数表示权重、激活、误差和梯度的方法,以减少深度神经网络的计算精度。此外,还提出了一种增强的损失缩放方法,以改善误差传播,并通过随机舍入技术来处理梯度噪声。实验结果表明,该方法可以在保持或提高准确率的同时,显著降低计算和存储需求。