
字节跳动
大模型厂商的价格战与策略
大模型赛道的竞争愈发激烈,价格战持续进行。在新年前夕,阿里云宣布2024年度第三轮大模型降价,通义千问视觉理解模型全线降价超80%,如Qwen-VL-Plus直降81%,输入价格仅为0.0015元/千tokens,创下全网最低价格;更高性能的Qwen-VL-Max降至0.003元/千tokens,降幅高达85%。而在火山引擎的Force大会上,字节跳动的豆包视觉理解模型也再次降价,输入价格为0.003元/千tokens,1块钱可处理284张720P的图片。此前,百度智能云更为激进地宣布文心大模型旗下的两款主打产品——ENIRESpeed与ENIRELite全面免费开放。
然而,大模型商家的降价策略中存在不少套路。目前各家提供的服务主要分为三种:模型推理的基础服务、模型精调、模型部署。各大科技公司疯狂砍价的主要是第一种基础服务,即标准版模型的推理费用,且这部分定价又分成“输入”和“输出”两部分,在调用大模型时往往会根据输入和输出的token数量双向计费。例如,豆包的通用模型DoubaoPro-32k,输入价格虽比行业便宜,但输出价格与部分同行持平甚至更高。其他厂商如百度、阿里等也有类似情况,标准模型推理的降价可让中小开发者降低成本,但模型微调和模型部署两项服务的降价幅度较小。
大模型的热度与市场竞争
字节跳动在大模型领域虽不算起跑最快,但自今年年中开始便全力出击,制造一轮又一轮热度。在C端市场,豆包的广告投放十分猛烈,据移动营销平台AppGrowing统计,2024年4月—5月,豆包投放金额预计为1500万元-1750万元,6月上旬,投放金额高达1.24亿元。同时,字节几乎屏蔽了除豆包以外所有AI应用在抖音上的投放,目的是解决大模型应用的“用户焦虑”。然而,字节内部反思发现,豆包目前的用户活跃度并不算高,其每周仅活跃2至3天,且每天用户发送消息轮次仅为5到6次,单次2分钟左右,用户人均使用时长仅为10分钟左右,这表明豆包虽成为国内用户数量断层式第一的AI软件,但仍未成为一款killerapp。
在国际上,美国的OpenAI的ChatGPT在全球范围内拥有庞大的用户群体和极高的知名度,周度活跃用户数突破3亿,web端流量较年初增长138%,其不断更新迭代,引领着大模型的发展潮流。欧洲的DeepSeek发布的DeepSeek-V3开源模型,在各种基准测试中的表现能够媲美需要高额费用的GPT-4o,总训练成本仅为557.6万美元,相比之下,GPT-4o的训练成本则高达1亿美元,为行业提供了低成本训练的新思路。
大模型淘汰赛与技术创新
目前,大模型行业已历经一轮淘汰赛洗礼,产业格局更加合理,只留下了约10%的大模型进入决赛圈,但这并非终点,而是新一轮淘汰赛的开始。在新一轮淘汰赛中,价格不再是主导因素,而是技术。今年9月,OpenAI的“王炸”o1模型问世,其最大的特点是“推理式AI”,在回答复杂问题时会花费更多时间来逐步推演问题,更接近人类真实的逻辑推理方式,预示着AI进入了一个全新的阶段。随后,o3模型也即将推出,包括完整版和mini版,可将模型推理时间设置为低、中、高,模型思考时间越高,效果越好。
国内企业也在积极探索技术创新,如阿里、昆仑万维等企业推出类o1模型,虽然与OpenAI还有差距,但也代表了他们对这一趋势的认同。国内企业走的思路是集成思维链、用搜索方式提升深度推理能力、加入反思策略和算法提升逻辑推理性能。而DeepSeek-V3采用的蒸馏技术也给行业提供了新思路,但同时也陷入“优化GPT”的争论。
目前,国内外大模型行业都在快速发展,价格战虽仍在继续,但技术能力将越发关键。大模型厂商需要不断提升技术、降低成本、优化服务,才能在即将到来的淘汰赛中存活下来,并充分发挥AI的优势,为用户和社会创造更大的价值。同时,开源项目如DeepSeek-V3等也为行业的发展提供了更多的可能性和借鉴,有望加速整个行业的技术创新和进步。