大模型竞争激烈,技术才是关键

AI头条1个月前发布 freeAI
0
大模型竞争激烈,技术才是关键

字节跳动

在当今的科技领域,大模型的竞争愈发激烈,一场没有硝烟的战争正在上演,而这背后反映的是各大厂商对未来的布局与焦虑。

价格战中的大模型厂商

大模型赛道的价格战已经持续了一年有余,至今仍未停歇。就在不久前,阿里云宣布2024年度第三轮大模型降价,通义千问视觉理解模型全线降价超80%。火山引擎的Force大会上,也对旗下的模型进行了降价。目前,豆包视觉理解模型输入价格为0.003元/千tokens,1块钱可处理284张720P的图片。而百度智能云则更为激进,宣布文心大模型旗下的两款主打产品——ENIRESpeed与ENIRELite,将全面免费开放。

然而,这些看似诱人的降价背后,实则暗藏玄机。据“远川科技评论”梳理,大模型厂商的收费模式主要分为三种:模型推理的基础服务、模型精调以及模型部署。各大科技公司在价格战中疯狂砍价的,其实是第一种基础服务,即标准版模型的推理费用,而这部分定价又分成了“输入”和“输出”两部分。在调用大模型时往往会根据输入和输出的token数量,进行双向计费,这就容易成为大模型公司的套路。例如,豆包的通用模型DoubaoPro-32k,输入价格为“0.8元/百万tokens”,按照官方说法是比行业便宜了99.3%,但输出价格方面却与一些同行持平甚至更高。

热度与市场的争夺

字节跳动在大模型领域虽然不算起跑最快的,但从今年年中开始,便开始制造一轮又一轮热度。豆包在B端的让利降价意图明显,在C端市场也是全力出击。据“连线Insight”援引AppGrowing统计,截至11月15日,国内十款AI原生应用中,Kimi和豆包是投放最疯狂的两个产品。然而,字节内部反思,豆包目前的用户活跃度并不算高,每周仅活跃2至3天,且每天用户发送消息轮次仅为5到6次,单次2分钟左右,用户人均使用时长仅为10分钟左右。这也让字节管理层意识到,像豆包这样的AI对话类产品可能只是AI产品的“中间态”,更低门槛、更“多模态”的产品形式更具落地可能。

在全球范围内,大模型的热度也是居高不下。在美国,OpenAI的GPT系列一直处于领先地位,其最新的o1模型的问世更是让各家看到了差距。o1最大的特点就是“推理式AI”,它在回答复杂问题时会花费更多时间来逐步推演问题,这种延时思考让o1更接近人类真实的逻辑推理方式。在o1发布的3个月后,下一代o系列产品o3便横空出世,并且o3有完整版和mini版,新功能是可将模型推理时间设置为低、中、高,模型思考时间越高,效果越好。

在欧洲,也有不少公司在大模型领域崭露头角。例如,德国的Aleph Alpha公司,其研发的大模型在自然语言处理和多模态任务中表现出色,尤其是在处理德语等欧洲语言时,具有独特的优势。该模型在一些特定领域的应用中,如法律、金融等,已经取得了不错的效果,为欧洲的企业和机构提供了高效的AI解决方案。

技术才是核心竞争力

其实不止豆包,目前市面上所有二线及以下的大模型厂商,都处在花钱买流量的阶段,为的是留住用户。但在「科技新知」看来,新一轮淘汰赛的重点,价格不再是主导因素而是技术。目前科技公司们也开始陆续意识到,仅发布一个免费的应用,并不能为公司带来直接收益,C端用户量很难增长,获客成本已经明显提升。更重要的是去直接触及那些愿意付费的B端客户,例如金融、政务、汽车等行业。

在技术创新方面,美国的科技巨头们一直处于领先地位。除了OpenAI的o系列模型外,谷歌的Bard模型也在不断迭代升级,其在知识问答、文本生成等方面的能力越来越强。谷歌还在研究如何将大模型与其他技术,如量子计算等相结合,以进一步提升模型的性能。

在开源领域,Hugging Face的Transformers库是目前最受欢迎的大模型开源项目之一。它提供了丰富的预训练模型和工具,让开发者可以轻松地进行模型的训练、微调和部署。许多公司和研究机构都基于这个开源项目进行二次开发,加速了大模型的应用和推广。

在国内,OpenBayes贝式计算推出的多模态模型贝式小算结合了先进的视觉理解和语言生成技术,能够同时处理和分析多种形式的数据,包括静态图片和动态视频。该模型在MME-Realworld等评测中取得了优异的成绩,成功落地于卫星遥感、医疗影像、法律财务、文件表格互译等生产场景。

总的来看,未来价格虽仍会是影响企业拿单的因素之一,但随着技术的快速迭代和行业的发展,技术能力将越发关键。只有不断提升技术、降低成本、优化服务,大模型厂商才能在即将到来的淘汰赛中存活下来。同时,开源项目的发展也将为整个行业的创新和进步提供强大的动力,让更多的企业和开发者能够参与到大模型的研究和应用中来。

© 版权声明

相关文章

暂无评论

暂无评论...