AI公司正向美国军方兜售软件,五角大楼称AI加速‘杀伤链’

AI公司正向美国军方兜售软件,五角大楼称AI加速‘杀伤链’

OpenAI

五角大楼称AI加速其‘杀伤链’

在当今科技飞速发展的时代,人工智能(AI)正逐渐渗透到各个领域,军事领域也不例外。据相关消息,五角大楼宣称AI正在加速其 “杀伤链”。

AI与五角大楼的合作关系
领先的AI开发者,如OpenAI和Anthropic,正小心翼翼地向美国军方出售软件。他们的目标是在不让AI造成人员伤亡的前提下,提高五角大楼的军事效率。目前,这些AI工具虽未被直接用作武器,但五角大楼的首席数字和AI官员拉达·普拉姆博士表示,AI在识别、跟踪和评估威胁方面,为国防部带来了 “显著优势”。普拉姆博士强调:“我们显然在不断增加加快‘杀伤链’执行的方式,以便我们的指挥官能够在正确的时间做出反应,保护我们的部队。”

所谓 “杀伤链”,指的是军方识别、跟踪和消除威胁的过程,这涉及到一个由传感器、平台和武器组成的复杂系统。普拉姆博士指出,生成式AI在 “杀伤链” 的规划和战略制定阶段颇有助益。

五角大楼与AI开发者的合作相对较新。2024年,OpenAI、Anthropic和Meta调整了他们的使用政策,允许美国情报和国防机构使用其AI系统,但仍禁止AI伤害人类。普拉姆博士在被问及五角大楼如何与AI模型提供商合作时称:“我们对于使用他们技术的用途有明确的界定。”

此后,AI公司与国防承包商展开了一系列合作。例如,Meta在11月与洛克希德·马丁和博思艾伦等公司合作,将其Llama AI模型引入国防机构。同月,Anthropic与Palantir携手合作。12月,OpenAI与Anduril达成类似协议。此外,Cohere也悄然与Palantir合作部署其模型。

AI在军事应用中的伦理争议
随着生成式AI在五角大楼展现出实用性,它可能会促使硅谷放宽AI使用政策,允许更多军事应用。普拉姆博士提到:“通过模拟不同场景,生成式AI能够提供帮助。它让我们的指挥官充分利用手中的各种工具,同时在面临潜在威胁时,创造性地思考不同的应对方案和潜在的权衡。” 然而,目前尚不清楚五角大楼在这项工作中使用的具体是哪家公司的技术,因为在 “杀伤链” 中使用生成式AI(即使是在早期规划阶段)似乎违反了一些领先模型开发者的使用政策。例如,Anthropic的政策禁止使用其模型生产或修改 “旨在对人类生命造成伤害或损失的系统”。Anthropic首席执行官达里奥·阿莫迪在接受媒体采访时为其军事工作辩护称:“认为我们绝不应该在国防和情报领域使用AI的观点对我来说没有意义。但认为我们应该不顾一切地使用AI制造任何东西,甚至包括末日武器,显然同样疯狂。我们试图寻求中间立场,负责任地行事。”

在最近几个月,围绕AI武器是否应被允许做出生死决策,引发了一场国防技术辩论。一些人认为美国军方已经拥有这样的武器。Anduril首席执行官帕尔默·卢基在社交平台上指出,美国军方长期以来一直在采购和使用自主武器系统,如密集阵近防武器系统(CIWS)炮塔。他表示:“国防部数十年来一直在采购和使用自主武器系统,其使用(和出口)都有明确的规定和严格的监管,并非自愿行为。” 但当被问及五角大楼是否购买和操作完全自主、无需人类干预的武器时,普拉姆博士原则上予以否认。她强调:“从可靠性和伦理角度考虑,我们在使用武力的决策中始终会有人类参与,这也包括我们的武器系统。” “自主性” 这一概念在科技行业引发了诸多争议,例如AI编码代理、自动驾驶汽车或自动射击武器等自动化系统何时真正实现独立。普拉姆博士认为,认为自动化系统能独立做出生死决策的观点 “过于绝对”,现实并非如科幻作品所描绘的那样。实际上,五角大楼对AI系统的使用是人机协作,高级领导人在整个过程中都积极参与决策。

军事合作在科技界的反响
军事与科技公司的合作并非一帆风顺。去年,数十名亚马逊和谷歌员工因抗议公司与以色列的军事合同(代号为 “Project Nimbus” 的云服务协议)而被解雇或逮捕。相比之下,AI社区的反应相对平静。一些AI研究人员,如Anthropic的埃文·胡宾格认为,AI在军事领域的应用不可避免,与军方直接合作以确保正确使用AI至关重要。他在11月的一篇在线论坛帖子中指出:“如果你认真对待AI带来的灾难性风险,那么美国政府是一个极其重要的参与者。试图阻止美国政府使用AI并非可行策略。不仅要关注灾难性风险,还必须防止政府以任何可能的方式滥用你的模型。”

© 版权声明

相关文章

暂无评论

暂无评论...