字数 1199,阅读大约需 6 分钟

Eric Schmidt反对‘曼哈顿计划式AGI’
引言
近日,前谷歌CEO Eric Schmidt、Scale AI CEO Alexandr Wang以及人工智能安全中心总监Dan Hendrycks在一份政策文件中明确表示,美国不应采取“曼哈顿计划”式的推进方式来开发具有“超人类”智能的AI系统,即AGI(通用人工智能)。这份题为《超智能战略》的文件指出,美国若独占超智能AI系统,可能会引发中国的强烈反击,甚至可能导致网络攻击,进而破坏国际关系的稳定。
核心观点
1. 曼哈顿计划式AGI的潜在风险
文件中提到,“曼哈顿计划式AGI”假设竞争对手会默认长期的不平衡或全面毁灭,而不是采取预防措施。这种追求超级武器和全球控制的做法,可能会引发敌对反击和紧张局势升级,从而破坏战略所声称的稳定。这一观点由三位在美国AI行业具有高度影响力的专家共同提出,具有重要的参考价值。
2. 相互确保AI故障(MAIM)概念
Schmidt等人提出了“相互确保AI故障”(MAIM)的概念,即政府可以主动禁用威胁性的AI项目,而不是等待对手将AGI武器化。这一概念类似于核武器时代的“相互确保毁灭”(MAD),旨在通过威慑来防止AI技术的滥用。
33.从“赢得超智能竞赛”到“防御策略”的转变
文件建议,美国应将重点从“赢得超智能竞赛”转向开发遏制其他国家创建超智能AI的方法。具体措施包括扩大网络攻击武器库,以禁用由其他国家控制的威胁性AI项目,以及限制对手获取先进的AI芯片和开源模型。
行业背景
1. 美国国会委员会的提议
几个月前,美国国会委员会提议采取“曼哈顿计划式”的努力来资助AGI开发,仿效20世纪40年代的美国原子弹计划。美国能源部长Chris Wright也在一台超级计算机站点前表示,美国正处于“新曼哈顿计划”的起点。然而,Schmidt等人的文件对这一提议提出了质疑。
2. AI作为军事优势
全球领导人已经将AI视为重要的军事优势。五角大楼表示,AI正在帮助加快军事的杀伤链。在这种背景下,Schmidt等人的观点具有重要的现实意义。
3. AI政策界的分歧
文件指出,AI政策界存在两大阵营:一是“末日派”,认为AI发展必然导致灾难性后果,主张各国放缓AI进步;二是“鸵鸟派”,认为各国应加速AI发展,寄希望于一切顺利。文件提出了第三种方式:一种审慎的AGI开发方法,优先考虑防御策略。
Schmidt的立场转变
值得注意的是,Schmidt此前一直主张美国在开发先进AI系统方面与中国进行激烈竞争。争。然而,份文件中,他提出了更为审慎的观点,建议采取防御策略。这一立场转变具有重要的信号意义。
全球视野
1. 硅谷的动态
硅谷作为全球AI创新中心,一直在推动AI技术的前沿发展。然而,Schmidt等人的观点提醒我们,AI技术的发展不仅需要创新,更需要谨慎和责任感。
2. 中国的回应
中国作为全球另一大AI强国,必然会对美国的AGI战略作出回应。中美在AI领域的竞争与合作,将直接影响全球AI发展的格局。
3. 欧洲的立场
欧洲在AI领域也有重要的地位地位,场和政策将对全球AI发展产生重要影响。欧洲是否会采取类似的防御策略,值得关注。
结论
总的来说,Eric Schmidt等人反对“曼哈顿计划式AGI”的观点,具有重要的理论和现实意义。义。在全球AI竞争日益激烈的背景下,和防御策略或许才是更明智的选择。AI技术的发展不仅需要创新,更需要全球合作和责任感,以确保技术的安全和可持续发展。