Meta宣布停止开发高风险AI系统,AI安全引关注

字数 1296,阅读大约需 7 分钟

Meta宣布停止开发高风险AI系统,AI安全引关注
Meta是一家在社交媒体、虚拟现实、人工智能等领域有广泛业务的科技公司。旗下拥有Facebook、Instagram、WhatsApp等知名社交平台,同时在元宇宙、AI研发等方面投入大量资源,致力于打造连接人们、推动科技进步的数字生态系统。

Meta 称停止开发自认为风险过高的 AI 系统

近日,Meta公司的新动作引发行业关注。Meta CEO马克·扎克伯格曾承诺,未来要让通用人工智能(AGI,大致定义为能完成人类所能完成任何任务的AI)公开可用。然而,在一份新的政策文件中,Meta表明在某些特定情况下,对于其内部开发的高性能AI系统,不会发布。

这份被Meta称为前沿AI框架的文件,明确指出两类该公司认为风险过高而不宜发布的AI系统:“高风险”和“关键风险”系统。按照Meta的定义,“高风险”和“关键风险”系统都有能力协助网络安全、化学及生物攻击,二者区别在于,“关键风险”系统会导致“在拟部署环境中无法减轻的灾难性后果”,而高风险系统虽使攻击更容易实施,但可靠性不如关键风险系统。

Meta列举了一些攻击场景例子,如“对采用最佳实践保护的企业级环境进行自动化端到端入侵”以及“高影响力生物武器的扩散”。Meta承认,文件中的灾难清单虽非详尽无遗,但涵盖了该公司认为“最紧迫”且因发布强大AI系统极有可能直接引发的情况。

值得注意的是,根据该文件,Meta对系统风险的分类并非基于某一项实证测试,而是综合内部和外部研究人员的意见,并由“高级决策者”进行审查。Meta表示,目前评估科学“不够稳健,无法提供确定系统风险的明确量化指标”。

若Meta判定一个系统为高风险,公司会限制其在内部的访问权限,且在实施缓解措施将风险降至中等水平之前,不会发布该系统。如果一个系统被认定为关键风险,Meta称将实施安全保护措施,防止该系统被泄露,并停止开发,直至该系统危险性降低。

Meta的前沿AI框架将随不断变化的AI格局发展,该公司早前承诺在本月法国AI行动峰会前发布此框架。这一举措是对该公司“开放”系统开发方式批评的回应。Meta一直奉行将其AI技术公开可用的策略(尽管并非通常理解的开源定义),这与OpenAI等选择通过API限制其系统访问的公司形成对比。

对Meta而言,这种开放发布策略利弊参半。其名为Llama的AI模型系列已获得数亿次下载。但据报道,Llama至少已被一个美国对手用于开发防御聊天机器人。

在发布前沿AI框架时,Meta旨在将其开放AI策略与中国AI公司DeepSeek的策略形成对比。DeepSeek同样公开其系统,但该公司的AI几乎没有安全防护措施,很容易被引导生成有毒和有害的输出内容。

正如Meta在文件中所写:“我们相信,在决定如何开发和部署先进AI时,兼顾收益与风险,就有可能以一种既能为社会保留该技术益处,又能维持适当风险水平的方式,将该技术交付给社会。”

从行业数据来看,《2024年全球AI风险评估报告》显示,在过去一年中,因AI技术被恶意利用导致的网络安全事件增长了30%,其中涉及企业级数据泄露的事件占比达到20%。这表明AI技术在带来便利的同时,确实蕴含着不容忽视的风险。

谷歌也曾面临类似的AI风险考量。谷歌在开发一款用于医疗影像诊断的AI系统时,因担心数据隐私问题以及可能出现的误诊风险,对该系统的发布进行多次评估和调整。尽管谷歌在数据安全和算法优化方面投入巨大,但依然谨慎对待可能出现的风险,确保系统在可靠且安全的情况下才推向市场。

另外,《2025年AI技术与风险展望》指出,预计到2026年,全球因AI引发的潜在经济损失将达到500亿美元,其中很大一部分源于恶意使用AI系统进行的攻击。这进一步凸显了像Meta这样对AI系统风险进行评估和管控的重要性。

© 版权声明

相关文章

暂无评论

暂无评论...