​前谷歌 CEO 投资的初创公司发布240亿参数化学推理模型,准确率超越多种领先模型

在人工智能领域,大模型的研究不断进展,尤其是在推理能力的提升上。最近,由前谷歌 CEO 埃里克・施密特投资的初创公司 FutureHouse,开源了一个名为 ether0的化学任务推理模型,参数规模高达240亿。这一模型在不需要额外领域预训练的情况下,通过后训练技术,展现出强大的化学领域能力,尤其是在数据需求上相比于传统领域专用模型显著减少。

推理模型的应用不仅限于简单的选择题测试,FutureHouse 团队希望通过 ether0改变这种现状,推动科学推理的深入研究。为了构建该模型,研究团队从大量的学术论文中整理了化学实验数据,追踪分子特性如溶解度和气味,并将这些数据转化为可验证的科学问题。

​前谷歌 CEO 投资的初创公司发布240亿参数化学推理模型,准确率超越多种领先模型插图

ether0基于 Mistral-Small-24B 架构,利用强化学习进行训练,并处理了640,730个实验数据相关的化学问题,涵盖18类任务,包括合成可行性、血脑屏障渗透性和气味分析等。为了提升模型性能,研究团队引入了推理行为蒸馏和动态课程学习等技术。

在性能评估方面,ether0与多种通用大语言模型(如 Claude、o1)及化学专用模型(如 ChemDFM、TxGemma)进行了对比。结果显示,ether0在开放答案(OA)类别中准确率最高,选择题(MCQ)方面也具备强大的竞争力。其在某些任务上的准确率甚至达到了竞争对手的两倍以上。

此外,ether0在训练成本上也展现出显著的优势,要达到相似的反应预测准确率,传统的非推理型模型需要消耗50倍以上的数据。尽管 ether0在独立基准测试中难以与其他模型及人类表现进行交叉验证,但其能够对未经过训练的分子结构进行有效推理。

总之,ether0不仅能理解自然语言提问,还能通过自然语言进行推理,最终生成分子结构,特别擅长于类药分子的设计。尽管目前仍处于原型阶段,但其已为未来构建通用科学推理模型奠定了坚实的基础。

划重点:  

🌟 Ether0是由 FutureHouse 开源的240亿参数化学推理模型。  

📈 该模型的准确率在多个任务中超越了 GPT-4.1和 DeepSeek-R1等领先模型。  

💰 训练 ether0所需的数据量显著低于传统非推理型模型。

消息盒子
# 您需要首次评论以获取消息 #
# 您需要首次评论以获取消息 #

只显示最新10条未读和已读信息