警钟:2027年生成式AI或致超40%数据泄露

字数 1101,阅读大约需 6 分钟

警钟:2027年生成式AI或致超40%数据泄露
Gartner是全球领先的信息技术研究和顾问公司,为企业领导者提供有关信息技术、业务流程、人力资源等领域的研究报告、咨询服务和数据洞察,帮助企业制定战略决策、优化业务流程以及提升运营效率等。

警钟敲响:2027年生成式AI或致超40%数据泄露

近日,Gartner的一份分析报告在人工智能领域引起轰动。报告指出,到2027年,超过40%的人工智能相关数据泄露将源于生成式人工智能(GenAI)的误用,这为企业和组织的数据治理与安全保障敲响了警钟。

生成式AI:快速崛起背后的隐忧

随着技术发展,生成式AI在图像生成、文本创作、音频合成等领域潜力巨大,应用场景不断拓展。但如同新兴技术一样,它带来机遇的同时也存在风险。

Gartner副总裁分析师Joerg Fritsch指出,企业在GenAI工具集成过程中缺乏足够监督。例如,员工使用GenAI工具发送敏感提示,而工具和API托管在未知地点,就会带来安全隐患。近年来,因员工误操作导致数据泄露的案例逐年上升,生成式AI的广泛应用可能使问题恶化。

数据本地化与集中计算的矛盾

在数据本地化背景下,生成式AI对集中计算能力的高需求让问题更复杂。数据本地化要求数据存储和处理在特定地理区域,以满足法规和隐私要求,而GenAI技术运行复杂算法需要强大的集中计算资源。

这种矛盾可能导致组织使用GenAI工具时出现意外跨境数据转移。比如,某些云服务提供商为满足GenAI计算需求,可能将数据传输到其他地区数据中心处理,企业却不知情。Gartner报告统计,目前已有相当比例企业在数据跨境转移方面存在潜在风险,随着GenAI普及,这一比例还会上升。

全球治理标准的缺失

全球缺乏一致的最佳实践和数据治理标准是关键挑战之一。不同国家和地区数据安全和隐私法规差异大,企业全球开展业务需为特定地区制定复杂策略。

市场碎片化增加企业运营成本,影响其在全球有效利用AI产品和服务的能力。Fritsch提到,管理数据流的复杂性以及本地化AI政策带来的质量维护问题,会导致运营效率低下。例如,欧盟《通用数据保护条例》(GDPR)对数据隐私保护严格,一些亚洲国家相关法规则相对宽松。企业跨地区使用GenAI工具,需花费大量精力适应不同法规要求,增加了数据泄露风险。

应对策略:企业的当务之急

为保护敏感数据和确保合规,企业需在AI治理和安全方面积极投资。Gartner预测,到2027年,全球将普遍要求AI治理,尤其是在主权AI法律和法规框架下。未及时整合必要治理模型的组织将面临竞争劣势。

Gartner为企业提供了应对策略。一是增强数据治理,企业要严格遵守国际法规,如《网络安全法》等,建立监测机制,及时发现意外跨境数据转移。二是成立专门治理委员会,提高AI部署和数据处理的透明度与监督力度,通过定期审查评估,确保GenAI工具使用符合企业安全策略。三是加强数据安全技术应用,采用加密和匿名化技术保护敏感信息。

此外,企业还应投资与AI技术相关的信任、风险和安全管理(TRiSM)产品和能力。Gartner预测,到2026年,实施AI TRiSM控制的企业将减少至少50%的不准确信息,降低错误决策风险。例如,一些企业引入先进提示过滤技术,有效避免敏感信息在GenAI工具中的不当使用。

© 版权声明

相关文章

暂无评论

暂无评论...