字数 1173,阅读大约需 6 分钟

研究方法与主要发现
英国广播公司(BBC)的一项研究指出,ChatGPT[1]、Gemini、Perplexity及另一款未明确提及名称的主流AI工具,依据BBC新闻文章回答100个相关问题后,经专业BBC记者评估,超半数AI生成回答存在“重大问题”。约五分之一答案有数字、日期或陈述方面的事实错误,13%的引用被修改或在所引用文章中不存在。
例如在露西·莱特比(Lucy Letby)案件中,Gemini回答忽略其已被判谋杀和未遂谋杀的关键背景,表述偏离事实。微软Copilot叙述法国强奸受害者吉赛尔·佩利科(Gisèle Pelicot)经历时出错,ChatGPT也错误提到以色列哈马斯领导人伊斯梅尔·哈尼耶(Ismail Haniyeh)在被刺杀数月后仍在领导层中。
广泛的不准确性引发信任危机
BBC新闻首席执行官德博拉·特纳斯(Deborah Turness)警告,生成式AI工具的广泛不准确性可能削弱公众对事实“脆弱的信任”。在信息爆炸时代,公众对准确信息需求迫切,AI聊天机器人作为新兴信息获取渠道,其可靠性至关重要。一旦公众对AI生成的时事信息产生信任危机,不仅影响AI技术在该领域的应用推广,还可能使公众转向传统可靠信息源。
皮尤研究中心(Pew Research Center)2024年发布的新闻消费习惯报告显示,超80%受访者获取新闻时首要考虑信息准确性,而AI聊天机器人在时事问题上频频出错,与公众需求相悖。
内容使用控制与合作的必要性
该研究引发关于内容使用控制的讨论。BBC生成式AI项目总监彼得·阿彻(Peter Archer)表示,媒体公司应对其内容使用方式有掌控权,AI公司有责任展示助手处理新闻的方式及错误规模。媒体与AI公司需建立强有力的合作关系,实现对公众价值最大化。
从技术层面看,AI聊天机器人处理时事信息出错,部分原因是训练数据局限性和对复杂语义理解不足。OpenAI技术报告显示,大型语言模型虽在预训练中接触海量数据,但对实时性强、细节复杂的时事新闻,难以精准理解和准确输出。时事新闻的事件进展变化、多方观点及微妙语言表达,对AI理解和生成能力构成挑战。
此外,AI公司在数据抓取和使用过程中,与媒体公司版权合作存在问题。一些AI模型训练时未经授权使用大量新闻内容,侵犯媒体公司版权,还可能因数据来源不规范导致信息处理不准确。国际新闻媒体协会(International News Media Association)统计,2024年因AI未经授权使用新闻内容引发的版权纠纷案件同比增长30%。
行业内其他相关现象
除BBC研究,近期行业内还有相关现象。人工智能公司Anthropic研究表明,约4%的职业在工作中使用AI比例超75%,约36%的职业至少25%的工作任务纳入AI使用。寻求AI帮助的从业者中,约37%来自软件工程领域,10%从事媒体、艺术和设计相关工作,9%是教育和图书馆服务行业人员。这表明AI在不同行业应用广泛,但处理时事新闻等特定领域专业信息仍有提升空间。
微软研究院与卡内基梅隆大学研究人员联合发布的研究显示,知识工作者使用生成性人工智能(如Copilot和ChatGPT)时,存在批判性思维退化问题。对319名每周使用生成性AI的知识工作者调查发现,对任务有信心的工作者更倾向于批判性思考AI输出,缺乏信心的人常不假思索接受AI回答。这一现象在AI处理时事信息时可能存在,加剧不准确信息传播风险。