DDN Infinia 2.0:革新AI数据处理,加速模型训练

AI快讯2个月前发布 freeAI
0

字数 1079,阅读大约需 6 分钟

DDN Infinia 2.0:革新AI数据处理,加速模型训练
数据动力公司(DDN)专注于提供高性能存储解决方案,旨在加速企业处理大量数据的能力,支持从人工智能到高性能计算等多个领域。

DDN 推出 Infinia 2.0对象存储,加速AI数据处理速度

AI数据加速与成本效率

数据动力公司(DDN)在最近的发布会上宣布其最新的Infinia 2.0对象存储系统,专为人工智能(AI)训练和推理设计。此系统宣称可实现高达100倍的AI数据加速,并提升云数据中心的成本效率达10倍。根据独立基准测试,Infinia在AI数据加速、AI工作负载处理速度、元数据处理和对象列表处理方面实现了显著提升。

全球500强企业的信赖

DDN的首席执行官兼联合创始人亚历克斯・布扎里表示,全球500强企业中有85家使用DDN的数据智能平台运行他们的AI和HPC应用。这证明了DDN在企业级AI和HPC应用领域的领先地位。

更快的模型训练与实时洞察

Infinia 2.0旨在帮助客户实现更快的模型训练和实时洞察,通过消除瓶颈、加速工作流程,并支持复杂的模型列举、预训练和后训练等。

GPU效率与能耗的未来适应性

DDN的联合创始人、总裁保罗・布洛赫提到,Infinia 2.0的设计确保了GPU效率和能耗的未来适应性,为企业提供可持续的AI解决方案。

xAI成为DDN的客户之一

Elon Musk的xAI也是DDN的客户之一,进一步验证了DDN在AI领域的专业知识和解决方案的可靠性。

技术细节与性能参数

Infinia 2.0的核心是AI数据存储,该系统具备事件驱动的数据移动、多租户、硬件无关设计等特性,保证99.999%的正常运行时间,并实现高效的数据减缩和容错网络擦除编码。它与Nvidia的多种技术深度结合,提升了AI数据管道的效率。

Infinia的带宽可达TBps,延迟低于毫秒,性能远超AWS S3 Express。它支持从TB到EB的规模扩展,能支持超过100,000个GPU和100万个同时客户端。

合作伙伴关系与市场影响

超级微型公司的首席执行官查尔斯・梁表示,通过将DDN的Infinia 2.0与Supermicro的高端服务器解决方案结合,两家公司合作建设了全球最大的AI数据中心之一。

© 版权声明

相关文章

暂无评论

暂无评论...