AI聊天机器人错误率超60%:新闻行业的信任危机

字数 1355,阅读大约需 7 分钟

AI聊天机器人错误率超60%:新闻行业的信任危机
OpenAI是一家致力于研究、开发和应用人工智能技术以促进友好交流与创新的公司。

AI聊天机器人错误率超60%:对新闻行业的冲击与挑战

根据哥伦比亚新闻评论的数字新闻中心最新研究,流行的AI搜索工具在回答问题时超过60%的概率提供了不正确或误导性的信息1[1]。这一结果令人担忧,因为这些工具不仅削弱了公众对新闻报道的信任,也使出版商面临流量和收入的双重损失。

研究背景与核心发现

研究人员测试了包括 ChatGPT2[2]Perplexity3[3]GeminiGrok 在内的八款生成式AI聊天机器人,要求它们识别来自200篇最新新闻文章的摘录。结果显示,超过60%的回答都是错误的,这些聊天机器人经常捏造标题、不引用文章或引用未经授权的内容。即使它们能正确指出发布者,链接也常常指向失效的URL、转载版本或与内容无关的页面。

令人失望的是,这些聊天机器人很少表达不确定性,反而以不当的自信提供错误的答案。例如,ChatGPT 在200个查询中提供了134条错误信息,但仅在15次中表示过怀疑。即便是付费版的 Perplexity ProGrok3,其表现也不尽如人意,错误答案的数量更高,尽管它们的价格分别为每月20美元和40美元。

主流AI聊天机器人的表现分析

在内容引用方面,多个聊天机器人未能遵循出版商的限制尝试,五款聊天机器人甚至忽视了机器人排除协议这一被广泛接受的标准。Perplexity 就曾在出版商限制其爬虫的情况下,正确引用国家地理的文章。与此同时,ChatGPT 通过未授权的 Yahoo 新闻重新引用了收费墙内容的 USA Today 文章。

此外,很多聊天机器人将用户引导至 AOL 或 Yahoo 等平台的转载文章,而非原始来源,甚至在已经与 AI 公司达成授权协议的情况下。例如,Perplexity Pro 引用了德克萨斯论坛的转载版本,却未能给出应有的署名。而 Grok3Gemini 则常常发明 URL,Grok3 的200个回答中有154个链接至错误页面。

对新闻媒体的挑战

这一研究突显了新闻机构面临的日益严重危机。越来越多的美国人将 AI 工具作为信息来源,但与 Google 不同,聊天机器人不会将流量引向网站,反而会在没有链接回去的情况下总结内容,从而使出版商失去广告收入。新闻媒体联盟的丹妮尔・科菲警告称,如果没有对爬虫的控制,出版商将无法有效 “变现有价值的内容,或支付记者的薪水”。

AI公司的努力与挑战

研究小组在联系 OpenAI4[4] 和微软后,他们虽然对自己的做法进行了辩护,但并未回应具体的研究发现。OpenAI 表示,它 “尊重出版商的偏好”,并帮助用户 “发现优质内容”,而微软则声称其遵循 “robots.txt” 协议。研究人员强调,错误的引用做法是系统性的问题,而非个别工具的现象。他们呼吁 AI 公司改善透明度、准确性以及对出版商权益的尊重。

全球视角下的AI发展

从全球视角来看,这一问题在硅谷、中国、欧洲等地的AI发展中普遍存在,但地域性差异也不容忽视。例如,中国的AI公司在处理新闻内容时可能面临更严格的监管要求,而欧洲的AI公司则可能更注重数据隐私和版权保护。

专家意见与社会反响

专家们对这一问题表达了深切的关注。他们认为,AI聊天机器人的高错误率不仅损害了新闻的可信度,也对公众的知情权构成了威胁。社会上也出现了对AI工具的质疑声,一些用户开始重新审视这些工具的可靠性,并呼吁相关部门加强监管。

改善建议

建议:

  1. 1. 提高数据准确性:AI公司应加强对数据源的审核和验证,确保提供的信息准确无误。
  2. 2. 尊重出版商权益:AI公司应严格遵守出版商的限制和授权协议,不得擅自引用或转载内容。
  3. 3. 增加透明度:AI公司应公开其数据处理和引用的机制,让用户了解信息的来源和可靠性。
  4. 4. 加强监管:相关部门应加强对AI工具的监管,确保其符合法律法规和道德标准。


引用链接

[1] 1: https://www.cjr.org/
[2] 2: https://openai.com/
[3] 3: https://www.perplexity.ai/
[4] 4: https://openai.com/

© 版权声明

相关文章

暂无评论

暂无评论...