AI“谣言奇点”来袭,真相何去何从?

一、AI“谣言奇点”的降临与社会防御的困境

AI“谣言奇点”来袭,真相何去何从?

在科技飞速发展的当下,AI技术正以前所未有的速度改变着我们的世界,但也带来了一系列令人担忧的问题。正如我们所看到的,AGI奇点尚未到来,AI“谣言奇点”却已悄然降临。

2023年至2024年期间,多起AI生成内容引发的事件引起了社会的广泛关注。2023年3月,Midjourney生成的教皇方济各身着巴黎世家羽绒服的照片在社交媒体上获得超百万点击,许多人误以为是真实照片。2023年4月,AI生成的中国四川山火照片因画面逼真,一度引发公众恐慌,直到官方媒体出面澄清。2023年8月,在美国夏威夷毛伊岛发生严重山火期间,AI生成的纽约市被洪水淹没的照片再次引发人们对气候灾难的恐慌。2023年12月,甘肃积石山地震期间,大量AI生成的地震现场照片混杂在真实灾情照片中传播,严重干扰了灾情信息的准确传递。2024年1月7日,西藏日喀则市定日县发生6.8级地震,一张戴帽子的小孩被重压在倒塌建筑物下的AI生成图片在某平台上疯传,至少有10个以上的账号发布并与地震关联,有些甚至获得上万的转评赞。这些事件仅仅是AI生成内容对人类社会影响的一个切面,但却凸显了在灾害、战争等场景中,AI制造半真半假信息可能带来的严重后果。

从技术原理上看,AI文生图模型的能力在不断提升。以Midjourney为例,早在2023年3月其v5版本就通过海量手指标注数据对模型进行微调,解决了手指数量的问题,但当时AI生成的手指还存在肌肉纹理不自然等瑕疵。然而到了2024年7月,最新版的Midjourney V6.1已基本解决手指问题,甚至将手部细节做到相当完美逼真。这表明AI生成图像的真实度一直在加强,如今已经达到了普通人难以辨别真伪的程度。

二、不同检测方法的对比

面对AI生成内容的泛滥,人们尝试了多种检测方法。美国西北大学在2024年6月专门出了一份54页的手册,提到了五种核心辨别AI造假的方法:
解剖学上的不合理:如手部的不自然、骨骼惊奇、牙齿奇怪等。但随着技术的进步,这些问题在多次生成或降低Prompt复杂度的情况下可被避免。
风格化:如果画面看起来太干净、或者过分有电影感,可能是AI造假。然而,这并非绝对标准,一些专业摄影师拍摄的照片也可能具有类似的风格。
功能上的不合理:AI对很多功能性产品的理解有限,会常常表现很模糊,或者不对劲,比如把镜子放在床后面等不符合常理的情况。但同样,这些错误也可能通过反复调整提示词来避免。
违反物理规则:比如反光和影子不正常,镜中倒影也不对劲。不过,对于一些复杂的光线环境,人类肉眼也可能难以准确判断。
文化或常识上不合理:比如川普加入黑人女性排队等不符合人物身份和常识的情况。但如果生成内容涉及的文化或常识较为小众,也可能难以被发现。

除了人工识别方法外,还有一些利用计算机视觉技术的检测工具。例如AI or not,它是一款可以提供简单“是”或“否”答案的工具,在对10张图片的测试中获得了80%的成功率。虽然这一成功率并不完美,但也为我们提供了一种可行的检测途径。然而,这些工具也并非万无一失,对于一些经过精心调整和优化的AI生成内容,仍然可能出现误判。

三、行业应对策略

为了应对AI生成内容带来的挑战,各大科技公司和平台纷纷采取了措施,形成了三道防线:
第一道防线:电子标签与水印技术:科技公司在AI生成内容走出家门时,会对其打上一定的电子标签,让它们有一个可以被识别的电子身份证。例如,OpenAI采用了双重保护机制,在图像处理中采用C2PA标准水印,并在元数据中嵌入生成信息,同时在图像右下角添加标识。Google开发的SynthID水印技术则对人眼完全不可见,能在图片经过多重操作后依然存在,但检测过程相对复杂。Adobe推出的系统化的Content Credentials方案,为每张图片配备了一个可靠的“电子档案”,符合国际C2PA标准,并提供了面向大众的Verify验证平台。然而,仍有一些科技公司在这道防线上不太负责任,如Midjourney没有添加传统水印,Stability AI把权利交给用户,由用户决定是否添加水印。
第二道防线:传播途径设关卡:科技巨头Meta声称正在为旗下社交平台开发新的标识系统,计划将可见标记和隐形水印结合起来,注重标识的持久性和跨平台兼容性。X平台(原Twitter)开发了自动检测的机制,可以识别AI生成的内容,并在信息流中添加明显标识,还鼓励创作者主动标注自己使用AI辅助创作的内容。TikTok则要求创作者必须披露使用AI生成的内容,并建立专门的举报通道,处理未标注的AI内容。但平台是否应当承担管理责任,以及是否有能力承担管理责任,目前都是未知的。
第三道防线:法律监管:欧洲在2023年底通过了具有里程碑意义的《AI法案》(AI Act),这是全球首个全面的AI综合监管框架,其核心要求之一是所有AI生成的内容都必须清晰标识其人工智能属性,确保用户能够轻易识别内容的来源,并且设置了严厉的处罚措施,违规企业最高可能面临全球营收7%的巨额罚款。我国在去年9月也发布了《网络安全技术人工智能生成合成内容标识办法》强制性国家标准(征求意见稿)。然而,由于生成式AI的爆发式发展,法律制定的进程远慢于技术发展,而且各个国家的态度有所不同,都试图在监管和创新发展中找一个好的平衡点,再加上AI领域的竞争与合作关系复杂,想建立一个全球统一的治理框架和标准难上加难。

四、未来发展趋势

展望未来,AI技术的发展仍将继续加速,AI生成内容的质量和逼真度也将不断提高。这将给我们的社会防御体系带来更大的挑战。一方面,随着技术的进步,AI生成内容的检测难度将进一步加大,现有的检测方法可能会逐渐失效,需要不断研发新的检测技术和工具。另一方面,随着AI在各个领域的广泛应用,其对社会和经济的影响将更加深远,如何在促进AI技术创新的同时,有效防范其带来的风险,将成为全球各国政府、企业和学术界共同面临的重要课题。

在这个后真相时代,我们每个人都需要成为信息真实性的守门人。检查信源应该成为一种日常习惯,这不仅是个人的责任,更是集体信任网络中的一环。只有通过我们每个人的努力,才能在这场数字巨变中,守护好我们的信息生态,避免陷入混乱和无序的状态。毕竟,在信息洪流中主动守护真相,是人类区别于机器的本质特征之一。

© 版权声明

相关文章

暂无评论

暂无评论...