Pipeshift推出模块化推理引擎,AI推理GPU使用率大幅降低
近日,专注于AI领域的初创公司Pipeshift,凭借其创新性的模块化推理引擎,在AI行业激起了千层浪。这款全新的端到端平台,旨在助力企业更高效地训练、部署和扩展开源生成式AI模型,不仅能在任何云环境或本地GPU上运行,更实现了AI推理GPU使用率降低75%的卓越成果,同时显著提升推理速度、降低成本。
随着AI技术的飞速发展,企业在运用多种AI模型时面临着诸多挑战。传统的MLOps系统构建复杂,从计算资源获取、模型训练与精调,到生产级部署,每一步都需要耗费大量时间与工程资源,基础设施管理成本也随之水涨船高。Pipeshift联合创始人兼首席执行官阿尔科·查托帕迪亚指出,开发灵活且可模块化的推理引擎通常需要多年经验积累,而Pipeshift的解决方案正是为简化这一过程而生。
该平台采用MAGIC(GPU推理集群模块化架构)框架,这一框架允许团队依据具体工作负载需求,灵活组合不同推理组件。如此一来,无需繁琐工程,即可优化推理性能。例如,一家财富500强零售公司应用Pipeshift平台后,成功将原本需四个独立GPU实例运行的四个模型,整合至一个单一GPU实例上。这不仅使推理速度提升五倍,基础设施成本更是降低了60%。
从行业数据来看,德勤近日发布的“生成性人工智能现状报告”显示,全球范围内各类企业都在积极探索生成性人工智能(gen AI)的价值。在这样的大环境下,Pipeshift的技术突破无疑为企业在AI应用上提供了更具性价比的选择。
目前,Pipeshift已与30家公司达成年度授权协议,市场反响良好。不仅如此,Pipeshift还计划推出帮助团队构建和扩展数据集的工具,进一步加速实验和数据准备过程,提高客户工作效率。
Pipeshift的模块化推理引擎以其显著降低GPU使用率、提升推理速度和降低成本等优势,为企业在AI领域的发展提供了新的助力。随着其未来更多工具的推出,有望在企业AI工作负载管理方面发挥更大作用。官方入口