PyTorch 架构优化库 torchao 正式发布,可大幅提升 AI 模型效率
据介绍,torchao 提供了一系列优化工具集,可以帮助 LLaMA 3等流行的 AI 模型提升性能,其支持 float8、int4 等低精度数据类型,能够有效减少硬件开销和RAM用量。
官方举例,在 LLaMA 3 70B 模型的预训练中,torchao 提供的 float8 训练流程可将模型计算速度提升 1.5 倍。开发者只需利用 convert_to_float8_training 函数,即可将模型训练转换为 float8,从而轻松实现模型高效训练。
在推理方面,torchao 提供多种量化方法,包括权重量化(Weight-Only Quantization)和动态激活量化(Dynamic Activation Quantization),用户可以自有选择适合的量化策略,以获得最佳的模型推理性能。
在稀疏性优化方面,torchao 可以优化模型参数计算效率,据称可让 ViT-H 模型的推理速度提升 5%。同时,torchao 还可以将权重量化为 int4,并将键值缓存量化为 int8,可令 LLaMA 3.1 8B 在完整的 128K 上下文长度下仅占用 18.9GB 的显存。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。