揭秘Grok:AI助手在X平台上的事实核查风险与防范

字数 1271,阅读大约需 7 分钟

揭秘Grok:AI助手在X平台上的事实核查风险与防范
xAI是一家专注于开发先进人工智能技术的公司,旨在创造能够理解、学习和与人类自然交流的智能机器。

用户将Grok作为事实核查工具的现象及其引发的虚假信息传播担忧

现象描述

在Elon Musk的X平台上,一些用户开始将Musk的AI助手Grok作为事实核查工具使用,这引发了人类事实核查者的担忧,认为这可能助长虚假信息的传播。本月初,X平台允许用户调用xAI的Grok并询问各种问题,这一举措类似于Perplexity在X上运行的自动化账户所提供的体验。在xAI创建Grok的自动化账户后,用户开始尝试向其提问。包括印度在内的一些市场的用户开始要求Grok核查针对特定政治信念的评论和问题。

风险分析

事实核查者对使用Grok或任何此类AI助手进行事实核查表示担忧,因为这些机器人可以以令人信服的方式构建答案,即使这些答案在事实上并不正确。过去曾出现过Grok传播假新闻和错误信息的实例。去年8月,五名州务卿敦促Musk对Grok进行关键性修改,此前该助手在社交网络上传播了有关美国大选的误导性信息。其他聊天机器人,包括OpenAI的ChatGPT和Google的Gemini,去年也被发现在大选问题上生成了不准确的信息。

专家观点

国际事实核查网络(IFCN)主任Angie Holan表示:“像Grok这样的AI助手非常擅长使用自然语言,给出听起来像是人类所说的答案。通过这种方式,AI产品在自然性和真实性方面具有优势,即使它们可能非常错误。这将是这里的危险所在。”

印度非营利事实核查网站Alt News的联合创始人Pratik Sinha表示,尽管Grok目前的答案似乎令人信服,但它的好坏取决于所提供的数据。“谁将决定向它提供什么数据,这就是政府干预等问题将出现的地方,”他指出。“没有透明度。任何缺乏透明度的事物都会造成伤害,因为任何缺乏透明度的事物都可以以任何方式被塑造。”

AI助手与人类事实核查者的对比

与AI助手不同,人类事实核查者使用多个可信来源来验证信息。他们还对自己的发现承担全部责任,并附上自己的名字和组织以确保可信度。Sinha表示,尽管Grok目前的答案似乎令人信服,但它的好坏取决于所提供的数据。他强调了数据源控制和潜在政府干预的问题,指出缺乏透明度可能导致伤害。

社交平台公开信息传递的风险

通过社交媒体平台访问像Grok这样的AI助手的另一个令人担忧的领域是它们在公开场合传递信息,这与私下使用的ChatGPT或其他聊天机器人不同。即使用户清楚地知道从助手那里获得的信息可能是误导性的或不完全正确的,平台上的其他人仍然可能相信它。这可能造成严重的社会危害。

 

© 版权声明

相关文章

暂无评论

暂无评论...