字数 1358,阅读大约需 7 分钟

谷歌Gemini 2.5 Pro技术报告中缺失的关键安全细节探讨
谷歌在推出其迄今为止最强大的AI模型Gemini 2.5 Pro后几周内发布了内部安全评估结果的技术报告,然而专家指出这份报告缺乏细节,难以确定该模型可能带来的风险。技术报告通常提供公司不愿广泛宣传的关于其AI的有用信息,有时甚至包括不那么光彩的内容。总体而言,AI社区将这些报告视为支持独立研究和安全评估的善意努力。
谷歌与其他AI竞争对手在安全报告方法上的差异
谷歌在安全报告方法上与一些AI竞争对手有所不同。它仅在认为模型已从“实验”阶段毕业时才发布技术报告,并且不会在报告中包含所有“危险能力”评估结果,而是为这些内容保留单独审计。然而,几位与TechCrunch交谈的专家对Gemini 2.5 Pro报告的稀疏性感到失望,他们指出该报告没有提及谷歌的前沿安全框架(Frontier Safety Framework,FSF)谷歌官网[1]。谷歌去年推出了FSF,旨在识别未来可能造成“严重伤害”的AI能力。
Peter Wildeford,人工智能政策与战略研究所的联合创始人,表示:“这份报告非常稀疏,包含的信息很少,而且在模型已经向公众发布几周后才发布。无法验证谷歌是否履行了其公开承诺,因此无法评估其模型的安全性和安全性。”Secure AI Project的联合创始人Thomas Woodside表示,虽然他很高兴谷歌发布了Gemini 2.5 Pro的报告,但他对公司承诺及时提供补充安全评估的诚意表示怀疑。Woodside指出,谷歌上一次发布危险能力测试结果是在2024年6月,而该模型是在同年2月宣布的。更令人担忧的是,谷歌尚未发布Gemini 2.5 Flash的报告,这是该公司上周宣布的一款更小、更高效的模型。一位发言人告诉TechCrunch,Flash的报告“即将发布”。Woodside表示:“我希望这是谷歌开始更频繁发布更新的承诺。这些更新应该包括尚未公开部署的模型的评估结果,因为这些模型也可能带来严重风险。”
全球AI行业在安全性和透明度方面的‘竞次’趋势
尽管谷歌可能是最早提出为模型提供标准化报告的AI实验室之一,但它并不是唯一一家最近被指责在透明度方面表现不佳的公司。Meta发布了其新的Llama 4开放模型的类似简略安全评估,而OpenAI选择不为其GPT-4.1系列发布任何报告。谷歌向监管机构承诺将保持高标准的AI安全测试和报告,这一承诺悬而未决。两年前,谷歌告诉美国政府,它将为所有“重要”的公共AI模型“在范围内”发布安全报告。该公司随后向其他国家做出了类似的承诺,承诺在AI产品方面提供“公共透明度”。
民主与技术中心的AI治理高级顾问Kevin Bankston将零星且含糊的报告趋势称为AI安全方面的“竞次”。他告诉TechCrunch:“结合有报道称,像OpenAI这样的竞争对手实验室在发布前将安全测试时间从几个月缩短到几天,谷歌顶级AI模型的这种微薄文档讲述了一个令人不安的故事,即随着公司急于将模型推向市场,AI安全和透明度方面的竞次正在加剧。”谷歌在声明中表示,虽然其技术报告中没有详细说明,但在发布前会对模型进行安全测试和“对抗性红队测试”。