飞桨3.0正式发布,支持文心4.5等大模型,跨芯片适配成本降80

百度旗下的深度学习平台飞桨近日宣布正式发布新一代飞桨框架3.0。此次发布的框架3.0引入了五大核心技术创新,包括“动静统一自动并行”等关键技术,旨在有效降低大模型开发和训练成本,助力大模型时代的基础设施建设。

作为支撑大模型训练和推理任务的核心基础设施,飞桨框架3.0在性能优化方面表现出色。该框架已经支持包括文心4.5、文心X1在内的多款主流大模型,并通过优化的DeepSeek-R1满血版单机部署,显著提升了吞吐量,提升幅度高达一倍。

飞桨3.0正式发布,支持文心4.5等大模型,跨芯片适配成本降80插图

在计算速度方面,飞桨框架3.0借助其创新研制的神经网络编译器CINN,性能大幅提升。部分算子的执行速度提升了4倍,模型端到端的训练速度也提升了27.4%,显著缩短了大模型的训练时间。

在硬件适配方面,飞桨框架3.0推出了多芯片统一适配方案,支持60余款主流芯片,并涵盖了训练集群、自动驾驶、智能终端等多种应用场景。开发者只需编写一次代码,即可实现跨芯片的无缝迁移,硬件适配成本大幅降低,直降80%。

飞桨3.0的发布无疑是对深度学习框架的一次技术革新,为大规模人工智能模型的开发和部署提供了更高效、更灵活的支持。

消息盒子
# 您需要首次评论以获取消息 #
# 您需要首次评论以获取消息 #

只显示最新10条未读和已读信息