字数 1296,阅读大约需 7 分钟
Meta 称停止开发自认为风险过高的 AI 系统
近日,Meta公司的新动作引发行业关注。Meta CEO马克·扎克伯格曾承诺,未来要让通用人工智能(AGI,大致定义为能完成人类所能完成任何任务的AI)公开可用。然而,在一份新的政策文件中,Meta表明在某些特定情况下,对于其内部开发的高性能AI系统,不会发布。
这份被Meta称为前沿AI框架的文件,明确指出两类该公司认为风险过高而不宜发布的AI系统:“高风险”和“关键风险”系统。按照Meta的定义,“高风险”和“关键风险”系统都有能力协助网络安全、化学及生物攻击,二者区别在于,“关键风险”系统会导致“在拟部署环境中无法减轻的灾难性后果”,而高风险系统虽使攻击更容易实施,但可靠性不如关键风险系统。
Meta列举了一些攻击场景例子,如“对采用最佳实践保护的企业级环境进行自动化端到端入侵”以及“高影响力生物武器的扩散”。Meta承认,文件中的灾难清单虽非详尽无遗,但涵盖了该公司认为“最紧迫”且因发布强大AI系统极有可能直接引发的情况。
值得注意的是,根据该文件,Meta对系统风险的分类并非基于某一项实证测试,而是综合内部和外部研究人员的意见,并由“高级决策者”进行审查。Meta表示,目前评估科学“不够稳健,无法提供确定系统风险的明确量化指标”。
若Meta判定一个系统为高风险,公司会限制其在内部的访问权限,且在实施缓解措施将风险降至中等水平之前,不会发布该系统。如果一个系统被认定为关键风险,Meta称将实施安全保护措施,防止该系统被泄露,并停止开发,直至该系统危险性降低。
Meta的前沿AI框架将随不断变化的AI格局发展,该公司早前承诺在本月法国AI行动峰会前发布此框架。这一举措是对该公司“开放”系统开发方式批评的回应。Meta一直奉行将其AI技术公开可用的策略(尽管并非通常理解的开源定义),这与OpenAI等选择通过API限制其系统访问的公司形成对比。
对Meta而言,这种开放发布策略利弊参半。其名为Llama的AI模型系列已获得数亿次下载。但据报道,Llama至少已被一个美国对手用于开发防御聊天机器人。
在发布前沿AI框架时,Meta旨在将其开放AI策略与中国AI公司DeepSeek的策略形成对比。DeepSeek同样公开其系统,但该公司的AI几乎没有安全防护措施,很容易被引导生成有毒和有害的输出内容。
正如Meta在文件中所写:“我们相信,在决定如何开发和部署先进AI时,兼顾收益与风险,就有可能以一种既能为社会保留该技术益处,又能维持适当风险水平的方式,将该技术交付给社会。”
从行业数据来看,《2024年全球AI风险评估报告》显示,在过去一年中,因AI技术被恶意利用导致的网络安全事件增长了30%,其中涉及企业级数据泄露的事件占比达到20%。这表明AI技术在带来便利的同时,确实蕴含着不容忽视的风险。
谷歌也曾面临类似的AI风险考量。谷歌在开发一款用于医疗影像诊断的AI系统时,因担心数据隐私问题以及可能出现的误诊风险,对该系统的发布进行多次评估和调整。尽管谷歌在数据安全和算法优化方面投入巨大,但依然谨慎对待可能出现的风险,确保系统在可靠且安全的情况下才推向市场。
另外,《2025年AI技术与风险展望》指出,预计到2026年,全球因AI引发的潜在经济损失将达到500亿美元,其中很大一部分源于恶意使用AI系统进行的攻击。这进一步凸显了像Meta这样对AI系统风险进行评估和管控的重要性。