虚假信息正以惊人的速度扩散,这在很大程度上归功于公开可用的AI工具。最近的一项调查显示,85%的人表示担心网络上的虚假信息,世界经济论坛也已将AI生成的虚假信息列为全球顶级风险之一。
今年的一些高调的虚假信息活动案例包括X平台上针对美国联邦选举的机器人网络,以及乔·拜登总统的一段语音邮件深度伪造,鼓励某些居民不要投票。在南亚国家,候选人通过网络大量发布假视频、图片和新闻文章。伦敦市长萨迪克·汗的一个深度伪造甚至引发了支持巴勒斯坦游行的暴力事件。
那么,我们能做些什么呢?
Meta的监督委员会联合主席Pamela San Martín认为,AI不仅可以制造虚假信息,还可以帮助对抗虚假信息。该委员会成立于2020年,是一个半自治组织,负责审查对Meta内容审核政策的投诉并提出建议。
San Martín承认AI并非完美无缺。例如,Meta的AI产品曾错误地标记了奥斯威辛博物馆的帖子为冒犯性内容,并将独立新闻网站误分类为垃圾邮件。但她相信随着时间的推移,AI会变得更好。
“大多数社交媒体内容都是通过自动化进行审核的,这些自动化过程使用AI来标记某些内容供人类审查员查看,或直接采取行动——比如放置警告屏幕、删除内容、在算法中降权等。”San Martín在一次关于AI虚假信息的小组讨论中说,“预计这些AI审核模型会变得更好,如果它们确实变得更好,它们对于解决虚假信息问题将非常有用。”
然而,随着利用AI散布虚假信息的成本下降,即使是升级后的审核模型也可能难以跟上步伐。
小组讨论的另一位参与者,非营利组织Center for Countering Digital Hate的CEO Imran Ahmed指出,社交媒体推送放大虚假信息加剧了其危害。平台如X通过收入分成计划实际上激励了虚假信息的传播——BBC报道,X正在向表现良好的帖子用户支付数千美元,其中包括阴谋论和AI生成的图像。
“你有一个永不停息的谎言机器,”Ahmed说。“这在依靠某种程度真相的民主国家内是非常令人担忧的。”
San Martín认为,监督委员会在这方面已经带来了一些改变,例如鼓励Meta标记误导性的AI生成内容。监督委员会还建议Meta让识别非自愿性性深伪图像的案件更加容易,这是一个日益严重的问题。
但是,Ahmed和小组成员Brandie Nonnecke,一位研究新兴技术和人权交叉领域的加州大学伯克利分校教授,对监督委员会和一般意义上的自我监管能否单独遏制虚假信息的潮流持怀疑态度。
“从根本上说,自我监管不是真正的监管,因为监督委员会本身无法回答关于权力的五个基本问题:你拥有什么权力,谁赋予了你这种权力,在谁的利益中行使权力,向谁负责,如果我们不满意你的工作,如何解除你的职务。如果所有这些问题的答案都是Meta,那么你就不是一个真正的制衡机构,只是公关的噱头。”Ahmed说。
Ahmed和Nonnecke的观点并不孤立。纽约大学布伦南中心在6月份的一份分析报告中指出,监督委员会仅能影响Meta决策的一小部分,因为该公司控制着是否实施政策变化,也不提供对其算法的访问权限。
Meta还私下威胁要撤回对监督委员会的支持,突显了董事会运营的脆弱性。虽然监督委员会的资金来自不可撤销的信任基金,但Meta是该信托基金的唯一贡献者。
与其自我监管——这是X等平台不太可能采纳的做法——Ahmed和Nonnecke认为,监管是解决虚假信息困境的关键。Nonnecke认为,产品责任侵权法是一种追究平台责任的方式,因为这一原则要求公司为其“缺陷”产品造成的伤害或损害负责。
Nonnecke还支持对AI内容进行水印标记的想法,以便更容易识别哪些内容是由AI生成的。(水印也有自身的挑战。)她建议支付服务提供商可以阻止购买性性质的虚假信息,并且网站托管商可以让不良行为者更难注册计划。
试图推动行业的政策制定者在美国最近遭遇了挫折。10月,一名联邦法官阻止了一项加州法律,该法律原本要求AI深度伪造的发布者将其删除,否则可能面临经济处罚。
但Ahmed认为仍有理由感到乐观。他提到了像OpenAI这样的AI公司最近采取的措施,如对其AI生成的图像进行水印处理,以及英国的在线安全法案等内容审核法律。
“对于可能对我们民主、健康、社会和个人造成如此巨大损害的事物,最终必须有监管,”Ahmed说。“我认为有很多理由抱有希望。”