惊!黑客用损坏pickle文件在HuggingFace传恶意AI模型

AI快讯4个月前发布 freeAI
0

字数 944,阅读大约需 5 分钟

惊!黑客用损坏pickle文件在HuggingFace传恶意AI模型
Hugging Face是全球知名的机器学习平台,提供模型仓库、数据集、工具等资源,助力自然语言处理、计算机视觉等机器学习任务,在AI开发者社区中广泛使用,方便模型的共享、开发与应用。

黑客利用“损坏”pickle文件在HuggingFace上传恶意AI模型

近日,一则令人担忧的消息在人工智能安全领域引起轩然大波:网络安全研究人员发现,在全球知名的机器学习平台HuggingFace[1]上,出现了两个恶意的机器学习模型。这些模型借助一种新颖手段——通过“损坏”的pickle文件,成功绕过了平台的安全检测机制。

恶意模型的技术剖析

ReversingLabs的资深研究员卡洛・赞基(Karlo Zanki)揭示了这些恶意模型背后的奥秘。从以PyTorch格式存储的存档中提取的pickle文件,开头部分暗藏玄机,暗示其中藏匿着恶意Python代码。进一步研究发现,这些恶意代码的核心是反向shell,它能主动连接到硬编码设定的IP地址,实现黑客对目标系统的远程控制。

这种攻击方式被命名为nullifAI,目的是绕过现有的安全防护措施。在机器学习领域,恶意代码执行导致的安全漏洞数量呈上升趋势。此次nullifAI攻击方式的出现,给安全防护工作带来了新挑战。

Hugging Face上发现的这两个恶意模型,分别命名为glockr1/ballr7和who – r – u0000/000000000000000000000000000000000000。它们更像是黑客用于验证攻击思路的概念验证,而非精心策划的实际供应链攻击案例,但潜在风险不容小觑。

Pickle文件的安全隐患

pickle格式在机器学习模型分发过程中应用广泛,能方便地存储和传输各种复杂的Python对象。然而,它允许在加载和反序列化过程中执行任意代码,给恶意攻击者提供了可乘之机。

研究人员发现,这两个恶意模型所使用的PyTorch格式的压缩pickle文件,采用7z压缩,而非通常默认的ZIP格式。这一差异使它们成功避开Hugging Face的Picklescan工具恶意检测。卡洛・赞基指出,尽管pickle文件中的反序列化操作会因恶意载荷插入出现错误,但仍能部分反序列化,使恶意代码得以执行。而且,这些恶意代码位于pickle流开头,Hugging Face的安全扫描工具未能及时识别风险。

行业影响与应对措施

这一事件在机器学习和人工智能领域引发广泛关注,对HuggingFace平台的安全性和声誉造成冲击,也让整个行业对机器学习模型的安全性产生忧虑。事件曝光后,许多企业表示对机器学习模型的安全性信心下降,并计划重新评估自身的安全策略。

面对这一形势,研究人员迅速对Picklescan工具进行紧急更新,增强其对类似恶意模型的检测能力,防止类似事件再次发生。

此次事件为技术界敲响警钟,在人工智能和机器学习技术发展的同时,网络安全问题不容忽视。开发人员在使用pickle格式进行数据存储和传输时需更加谨慎,对输入数据严格验证和过滤,也可考虑采用安全替代方案,或对pickle文件进行额外加密和签名处理。

引用链接

[1] HuggingFace: https://huggingface.co/

© 版权声明

相关文章

暂无评论

暂无评论...