OpenAI前政策负责人批评公司重写AI安全历史

字数 1029,阅读大约需 6 分钟

OpenAI前政策负责人批评公司重写AI安全历史
OpenAI是一家致力于研究和应用人工智能技术的非营利组织,旨在促进和发展友好的AI以增进人类的利益。

OpenAI前政策负责人批评公司“重写”AI安全历史

近日,OpenAI前政策研究负责人Miles Brundage在社交媒体上公开批评OpenAI“重写”了其部署潜在风险AI系统的历史。这一事件引发了广泛关注,也让我们重新审视OpenAI在AI安全和发展方面的策略和历程。

事件背景

OpenAI本周发布了一份文件,概述了其当前在AI安全和一致性方面的哲学。文件中提到,OpenAI认为发展AGI(通用人工智能),即能够执行人类所能完成的任何任务的AI系统,是一条“连续路径”,需要“迭代部署和学习”AI技术。然而,Brundage认为,GPT-2在发布时确实需要极大的谨慎,这与OpenAI当前的迭代部署策略“100%一致”。

GPT-2的发布与争议

GPT-2是OpenAI在2019年宣布的一款AI模型,它是如今ChatGPT等AI聊天平台的先驱。GPT-2能够回答关于某个话题的问题、总结文章并生成文本,其水平有时与人类难以区分。尽管现在看来GPT-2及其输出可能显得基础,但在当时却是尖端技术。

由于担心恶意使用,OpenAI最初拒绝发布GPT-2的源代码,而是选择向选定新闻机构有限地提供演示访问。这一决定在AI行业引发了 mixed reviews。许多专家认为GPT-2构成的威胁被夸大,没有证据表明该模型会像OpenAI描述的那样被滥用。AI专刊The Gradient甚至发表公开信,要求OpenAI发布该模型,认为它技术重要性不容忽视。OpenAI最终在模型发布六个月后发布了GPT-2的partial version,几个月后发布了完整系统。Brundage认为这是正确的做法。

对OpenAI的批评

Brundage担心OpenAI的文件旨在设立一种负担证明,即“担忧是危言耸听的”,“你需要压倒性的即将来临的危险证据来采取行动”。他认为这是一种“非常危险”的先进AI系统心态。他补充说:“如果我还仍在OpenAI工作,我会问为什么这份文件会这样写,OpenAI希望通过这种片面方式贬低谨慎达到什么目的。”

OpenAI的历史与现状

OpenAI历来被指责优先考虑“闪亮产品”而牺牲安全,并急于发布产品以击败竞争对手。去年,OpenAI解散了其AGI准备团队,一系列AI安全和政策研究人员离开了公司,转投竞争对手。竞争压力只会增加。中国AI实验室DeepSeek凭借其公开可用的R1模型吸引了全球关注,该模型在许多关键基准上与OpenAI的o1“推理”模型相匹配。配。OpenAI首席执行官Sam Altman承认DeepSeek削弱了OpenAI的技术领先,并表示OpenAI将“加快一些发布”以更好地竞争。然而,这里涉及很多资金。OpenAI每年亏损数十亿美元,据报道,公司预计到2026年其年度亏损可能增至140亿美元。更快的产品发布周期可能短期内有利于OpenAI的底线,但可能以长期安全为代价。像Brundage这样的专家质疑这种权衡是否值得。

结语

OpenAI作为AI领域的领军企业,其一举一动都牵动着行业的神经。如何在追求技术进步的同时确保AI的安全和可控,是每一个AI从业者都需要深思的问题。Brundage的批评不仅是对OpenAI的质疑,也是对整个AI行业的警示。我们期待OpenAI和其他AI企业能够在未来给出更好的答案。

© 版权声明

相关文章

暂无评论

暂无评论...