字数 1187,阅读大约需 6 分钟
谷歌移除“不将AI用于武器”承诺,引发行业关注
近日,彭博社发现谷歌本周在其网站上移除一项关键承诺,即不将人工智能用于武器或监控领域。谷歌更新公开的AI原则页面,删除“我们不会涉足的应用领域”部分,上周该部分内容还存在。
谷歌方面回应相关询问时,指引至一篇关于“负责任的AI”的新博客文章。文章指出,秉持相关价值观的公司、政府和组织应共同创造能保护人类、促进全球发展并支持国家安全的人工智能。同时,谷歌新更新的AI原则强调致力于“减轻意外或有害后果,避免不公平偏见”,并使公司行为符合“被广泛接受的国际法和人权原则”。
谷歌过往争议:内部抗议与外部质疑
近年来,谷歌与美国及以色列军方签订云服务合同,在公司内部引发多起抗议。员工担忧公司涉足军事相关业务,认为与谷歌最初倡导的AI伦理原则相悖。五角大楼AI负责人透露,谷歌的一些AI模型正在加速美军的“杀伤链”,表明谷歌在AI军事应用方面的影响超出对外宣称范畴。
国际知名AI研究机构发布的《2024全球AI军事应用风险评估报告》显示,超60%的AI技术公司面临军事合作项目时,会遭遇内部员工伦理争议。像谷歌这类拥有大规模研发团队且注重企业社会责任宣传的公司,内部争议比例高达75%,凸显AI技术与军事应用结合时企业内部的价值观冲突。
行业内相似案例:科技巨头的不同抉择
谷歌并非唯一在AI军事应用方面面临争议的科技公司。微软曾因与美国国防部签订价值数十亿美元的HoloLens合同,为美军提供增强现实技术而遭批评。微软内部不少员工认为该技术可能用于非人道军事目的。统计显示,微软该项目推进过程中,约3000名员工联名签署公开信,反对公司参与此类军事项目,认为违背科技公司道德底线。
苹果公司在AI军事应用方面态度谨慎。苹果公司CEO多次公开表示,苹果致力于利用AI技术改善人们日常生活,而非应用于军事武器领域。苹果凭借在消费级市场的AI技术应用,如Siri语音助手,收获大量用户支持,品牌形象与“创新、人文关怀”紧密相连。这表明科技公司在AI军事应用上的不同决策,会对品牌形象和内部员工认同感产生深远影响。
数据背后的AI军事应用趋势
据相关报告,到2025年底,全球AI军事应用市场规模预计将达一定规模,年增长率超20%。AI在武器装备智能化、情报分析以及作战指挥决策等领域的应用将成为增长主要驱动力。武器装备智能化方面,AI技术使武器系统具备更高自主决策和精准打击能力,例如无人机搭载AI算法可实时分析战场环境,自主选择攻击目标,提高作战效率。
然而,快速发展带来诸多风险。联合国发布的《AI与军事冲突风险报告》指出,AI在军事领域广泛应用可能降低战争门槛,增加冲突爆发可能性。同时,AI系统的不可解释性和潜在算法偏见可能引发不公平军事行动,对平民造成更大伤害。