2024 – 2025,AI末日论缘何起伏?未来何去何从?

AI头条1个月前发布 freeAI
0
2024 - 2025,AI末日论缘何起伏?未来何去何从?

Meta

AI末日论的兴起背景

多年来,技术专家们就敲响过警钟,指出先进的人工智能系统有可能对人类造成灾难性的破坏。毕竟,AI系统如果做出伤害人类生命的决策,或是被权势者利用来压迫大众,又或是以各种方式导致社会衰败,那后果不堪设想。

例如,在2023年,AI末日论以及AI安全相关话题(涵盖像AI幻觉、内容审核不足等诸多AI伤害社会的方面)从旧金山咖啡店的小众讨论话题,逐渐变成了出现在各大主流媒体如MSNBC、CNN以及《纽约时报》头版的热议内容。当时,埃隆·马斯克以及1000多名技术专家和科学家呼吁暂停AI开发,要求全世界为这项技术带来的深远风险做好准备。不久后,OpenAI、谷歌等实验室的顶尖科学家签署公开信,强调应该更重视AI导致人类灭绝的风险。几个月后,拜登总统签署了一项AI行政命令,总体目标是保护美国人免受AI系统的伤害。而在2023年11月,世界领先的AI开发者OpenAI背后的非营利性董事会解雇了山姆·奥特曼,声称其有撒谎的名声,不能被委以像通用人工智能(AGI,曾经被视为AI的终极目标,意味着能展现自我意识的系统,不过现在定义也在随行业需求变化)这么重要的技术相关事务。

2024年硅谷对AI末日论的压制

然而到了2024年,情况发生了变化,那些警告声被科技行业所宣扬的生成式AI的实用且繁荣的愿景所淹没,而这个愿景对他们自身的利益也有益处。

a16z联合创始人马克·安德森在2023年6月发表了《为什么AI将拯救世界》这篇长达7000字的文章,驳斥了AI末日论者的观点,并对这项技术的未来发展呈现出一种更为乐观的设想。他提出要让大型科技公司和初创企业能够尽可能快速且积极地构建AI,尽可能少地设置监管障碍,认为这样能确保AI不会落入少数强大公司或政府手中,还能让美国有效地与中国竞争。当然,这也能让a16z投资的众多AI初创企业赚得更多利润。并且,a16z的联合创始人还与微软CEO萨提亚·纳德拉写了一封信,本质上就是请求政府不要对AI行业进行监管。

在投资方面,2024年的AI投资速度超过了以往任何时候,奥特曼很快又回到了OpenAI的领导位置,而大量的安全研究人员却在2024年离开了OpenAI,还对其日益淡薄的安全文化敲响了警钟。拜登总统那侧重于安全的AI行政命令在华盛顿特区也逐渐不受青睐,即将上任的总统当选人唐纳德·特朗普宣布计划废除拜登的这一命令,称其阻碍了AI创新,甚至有消息称安德森一直在为特朗普提供AI和技术方面的建议,a16z的资深风险投资家斯里拉姆·克里希南现在也成了特朗普的AI官方高级顾问。

从政策重点来看,乔治梅森大学莫卡特斯中心专注于AI的研究员迪恩·鲍尔表示,华盛顿的共和党人如今有着多个与AI相关且优先级高于AI末日论相关事务的重点事项,比如建设数据中心为AI提供动力、在政府和军队中运用AI、与中国竞争、限制中左翼科技公司的内容审核以及保护儿童免受AI聊天机器人的影响等。

2024年AI安全法案SB 1047的争议

2024年AI安全方面的焦点当属SB 1047法案,这项法案得到了两位备受尊敬的AI研究者杰弗里·辛顿和约书亚·本吉奥的支持。该法案试图阻止先进的AI系统造成大规模人类灭绝事件以及比2024年CrowdStrike故障更具破坏力的网络攻击。它一路通过了加州立法机构,来到了加州州长加文·纽森的办公桌前,纽森称其是一项具有“重大影响”的法案,毕竟这个法案试图防范马斯克、奥特曼以及许多硅谷其他领导人在2023年签署那些关于AI的公开信时所警告的种种情况。

但最终纽森否决了SB 1047法案。在做决定前,他在旧金山市区的台上谈到AI监管时表示“我没办法解决所有问题,我们能解决什么呢?”这也反映出当下很多政策制定者对灾难性AI风险的看法,认为这确实是个缺乏实际解决方案的难题。

而且SB 1047法案本身也存在缺陷,它基于规模来监管AI模型,试图只对大型参与者进行监管,却没考虑到像测试时计算等新技术以及小型AI模型的兴起(领先的AI实验室已经在朝这个方向转变了)。此外,该法案还被广泛认为是对开源AI以及研究界的一种冲击,因为它会限制像Meta和Mistral等公司发布高度可定制的前沿AI模型。

在这个过程中,据法案的作者、加州参议员斯科特·维纳称,硅谷采取了不正当手段来左右公众对SB 1047法案的看法。例如,来自Y Combinator和A16Z的风险投资家开展了针对该法案的宣传活动,传播诸如SB 1047法案会让软件开发者因作伪证而入狱这样的说法。Y Combinator还在2024年6月让年轻的创始人签署相关信件,差不多同一时间,安德森·霍洛维茨的普通合伙人安杰尼·米德哈也在播客上发表了类似言论。不过布鲁金斯学会指出这属于对法案的诸多歪曲之一,因为虽然SB 1047法案提到了科技高管需要提交报告指出其AI模型的缺陷,且指出在政府文件上撒谎属于作伪证,但实际上人们很少因作伪证被指控,被定罪的就更少了,而YC拒绝承认他们传播了错误信息,称该法案含糊不清,不像维纳参议员说的那样具体。

在这场围绕SB 1047法案的斗争中,有一种观点越发强烈,那就是AI末日论者不仅是反技术,甚至有些妄想了。著名投资者维诺德·科斯拉在TechCrunch的2024年Disrupt活动上称维纳对AI的真正危险一无所知,Meta的首席AI科学家杨立昆长期以来就反对AI末日论相关观点,在2024年更是直言不讳地表示“那种认为智能系统会自行设定目标并接管人类的想法简直荒谬至极,我们距离开发出超级智能AI系统还远着呢,虽然有很多构建技术的方式可能会带来危险、造成伤害甚至致人死亡,但只要有一种正确的方式,那就够了”。

2025年的展望

支持SB 1047法案的政策制定者暗示,他们可能会在2025年带着修改后的法案回归,以应对长期的AI风险。该法案的赞助商之一Encode表示,SB 1047法案所吸引的全国关注是一个积极信号,其副总裁桑尼·甘地在发给相关方的邮件中提到“尽管SB 1047法案被否决了,但AI安全运动在2024年还是取得了非常鼓舞人心的进展,我们乐观地认为,公众对长期AI风险的认知正在提高,政策制定者应对这些复杂挑战的意愿也在增强”,并且预计2025年在围绕AI辅助的灾难性风险监管方面会有“重大举措”,不过并未透露具体内容。

而站在对立面,a16z的普通合伙人马丁·卡萨多是反对监管灾难性AI风险的主要人物之一,他在12月关于AI政策的专栏文章中称,AI看起来“极其安全”,还表示“第一轮愚蠢的AI政策努力基本已经过去,希望我们往后能更明智些”。但把AI称作“极其安全”以及将监管尝试称作“愚蠢”的说法有些过于简单化了,比如a16z投资的Character.AI这家初创公司,目前正因儿童安全问题遭到起诉和调查,在一宗正在进行的诉讼中,一名14岁的佛罗里达男孩在据称向Character.AI聊天机器人倾诉了自己的自杀想法,并且还与其进行了浪漫和性相关的聊天后自杀了,这一案例表明我们的社会必须要为AI带来的新型风险做好准备,而这些风险在几年前听起来可能还很荒谬。此外,还有更多涉及长期AI风险的法案在讨论中,比如参议员米特·罗姆尼刚在联邦层面提出的相关法案。不过现在看来,AI末日论者在2025年似乎要面临一场艰难的战斗了。

© 版权声明

相关文章

暂无评论

暂无评论...