![AWS AI新突破:亚马逊云服务如何精准打击AI幻觉问题?](https://aimgsgoheap.codexiu.cn/2024/12/image-2024-12-04-bedrock-amazon-1.webp)
AWS
AWS新服务精准打击AI幻觉
亚马逊网络服务(AWS),作为亚马逊的云计算部门,最近推出了一款新工具来对抗AI幻觉 — 即AI模型行为不可靠的场景。这项服务名为Automated Reasoning checks,它通过交叉引用客户供应的信息来验证模型的响应是否准确。AWS声称,Automated Reasoning checks是首个也是唯一一个针对幻觉的防护措施。
Automated Reasoning checks与微软今年夏天推出的Correction功能几乎相同,后者同样标记可能存在事实错误的AI生成文本。谷歌也在其AI开发平台Vertex AI中提供了一个工具,允许客户“锚定”模型,使用第三方提供商的数据、自己的数据集或谷歌搜索。
Automated Reasoning checks通过AWS的Bedrock模型托管服务(特别是Guardrails工具)提供,尝试弄清楚模型是如何得出答案的,并判断答案是否正确。客户上传信息以建立某种基准真相,并创建可以细化并应用于模型的规则。随着模型生成响应,Automated Reasoning checks验证它们,并在可能的幻觉事件中,利用基准真相找到正确答案。它将这个答案与可能的错误陈述一起呈现,以便客户可以看到模型可能偏离的程度。AWS表示,普华永道(PwC)已经在使用Automated Reasoning checks为客户设计AI助手。
.7倍,达到了数万客户。
尽管如此,正如一位专家今年夏天告诉我的,试图从生成性AI中消除幻觉就像试图从水中消除氢一样。AI模型之所以产生幻觉,是因为它们实际上并不知道任何事情。它们是识别数据系列中的模式并根据之前看到的示例预测接下来会出现哪些数据的统计系统。因此,模型的响应不是答案,而是预测问题应该如何回答的预测 — 在一定的误差范围内。
AWS声称Automated Reasoning checks使用“逻辑上准确”和“可验证的推理”来得出结论。但该公司没有提供任何数据来证明该工具的可靠性。
除了Bedrock的新闻,AWS今天还宣布了Model Distillation,这是一个将大型模型(例如Llama 405B)的能力转移到小型模型(例如Llama 8B)的工具,后者运行起来更便宜、更快。作为微软Distillation in Azure AI Foundry的回应,Model Distillation提供了一种在不破产的情况下尝试各种模型的方法,AWS说。
Model Distillation目前仅适用于Bedrock托管的Anthropic和Meta的模型。客户必须从同一模型“家族”中选择大型和小型模型 — 模型不能来自不同的提供商。而且,蒸馏模型将损失一些准确性 — AWS声称“不到2%”。如果这些都没有阻止你,Model Distillation现在可以预览,以及Automated Reasoning checks。
同样提供预览的还有“多代理协作”,这是Bedrock的一个新功能,允许客户在更大的项目中分配AI进行子任务。作为Bedrock Agents的一部分,AWS对AI代理热潮的贡献,多代理协作提供了创建和调整AI以进行诸如审查财务记录和评估全球趋势等任务的工具。客户甚至可以指定一个“监督代理”来自动分解和路由任务给AI。监督代理可以“给予特定代理完成工作所需的信息”,AWS说,并“确定哪些操作可以并行处理,哪些需要从其他任务中获取细节后代理才能前进。”
“一旦所有专门的[AIs]完成他们的输入,监督代理[可以汇总]信息[并]综合结果,”AWS在帖子中写道。听起来很不错。但像所有这些功能一样,我们需要在现实世界中部署后看看它们的效果如何。