字数 1079,阅读大约需 6 分钟

DDN 推出 Infinia 2.0对象存储,加速AI数据处理速度
AI数据加速与成本效率
数据动力公司(DDN)在最近的发布会上宣布其最新的Infinia 2.0对象存储系统,专为人工智能(AI)训练和推理设计。此系统宣称可实现高达100倍的AI数据加速,并提升云数据中心的成本效率达10倍。根据独立基准测试,Infinia在AI数据加速、AI工作负载处理速度、元数据处理和对象列表处理方面实现了显著提升。
全球500强企业的信赖
DDN的首席执行官兼联合创始人亚历克斯・布扎里表示,全球500强企业中有85家使用DDN的数据智能平台运行他们的AI和HPC应用。这证明了DDN在企业级AI和HPC应用领域的领先地位。
更快的模型训练与实时洞察
Infinia 2.0旨在帮助客户实现更快的模型训练和实时洞察,通过消除瓶颈、加速工作流程,并支持复杂的模型列举、预训练和后训练等。
GPU效率与能耗的未来适应性
DDN的联合创始人、总裁保罗・布洛赫提到,Infinia 2.0的设计确保了GPU效率和能耗的未来适应性,为企业提供可持续的AI解决方案。
xAI成为DDN的客户之一
Elon Musk的xAI也是DDN的客户之一,进一步验证了DDN在AI领域的专业知识和解决方案的可靠性。
技术细节与性能参数
Infinia 2.0的核心是AI数据存储,该系统具备事件驱动的数据移动、多租户、硬件无关设计等特性,保证99.999%的正常运行时间,并实现高效的数据减缩和容错网络擦除编码。它与Nvidia的多种技术深度结合,提升了AI数据管道的效率。
Infinia的带宽可达TBps,延迟低于毫秒,性能远超AWS S3 Express。它支持从TB到EB的规模扩展,能支持超过100,000个GPU和100万个同时客户端。
合作伙伴关系与市场影响
超级微型公司的首席执行官查尔斯・梁表示,通过将DDN的Infinia 2.0与Supermicro的高端服务器解决方案结合,两家公司合作建设了全球最大的AI数据中心之一。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...