谷歌 Gemma 模型争议揭示 AI 开发生命周期的风险
近日,谷歌的 Gemma 模型因其误传关于美国参议员马尔莎・布莱克本的虚假信息而引发争议。布莱克本指出,Gemma 模型捏造了关于她的新闻故事,这不仅仅是 “无害的幻觉”,更是对她的诽谤。对此,谷歌于10月31日在社交平台 X 上宣布,将其 Gemma3模型从 AI Studio 平台上撤下,以防止误解。尽管 Gemma 模型通过 API 仍然可用,但在 AI Studio 上则已无法访问。

谷歌表示,Gemma 模型本应是针对开发者和研究人员设计的,而非供普通消费者使用。然而,由于 AI Studio 相对友好,非开发者依然能够接触到该模型并向其提出事实性问题。谷歌强调,他们从未打算让 Gemma 作为一个消费工具,当前的撤回行动正是为了解决这些混淆。
此外,谷歌的这一决定也突显了依赖实验性模型的潜在风险。开发者在使用这些模型时,必须考虑其可能带来的不准确性和危害性。随着技术公司面临的政治争议增多,这些因素往往影响着模型的部署。
还有一个问题是,AI 公司对其模型的控制力。如果没有本地或物理的拷贝,用户可能会因为公司决定撤回某个模型而失去访问权。谷歌并未确认 AI Studio 上使用 Gemma 的当前项目是否能保存。这种情况类似于 OpenAI 用户面对的困境,后者在宣布撤回一些热门模型后,虽然重新上线了 GPT-4o,但仍然在保持和支持模型的问题上受到质疑。
AI 模型虽然不断发展与进步,但仍是实验性的产物,可能成为技术公司和立法者施加影响的工具。企业开发者必须确保在模型被撤回之前能保存好自己的工作。
划重点:
🛑 谷歌因 Gemma 模型虚假信息争议撤回其在 AI Studio 的使用权限。
🔍 Gemma 模型原本为开发者设计,未考虑普通用户的使用需求。
⚠️ 企业开发者需谨慎使用实验性模型,以避免因模型撤回而导致工作损失。









空空如也!