字数 2182,阅读大约需 11 分钟

中国AI新秀DeepSeek震撼华尔街,各大机构如何评说?
近期,中国AI领域的一匹黑马——DeepSeek闯入大众视野,引发了行业内外的广泛关注。这家成立于2023年的公司,由前AI驱动的量化对冲基金High – Flyer的负责人梁文峰创立。DeepSeek推出的模型不仅开源,还具备独特的推理功能,能在给出答案前清晰阐述思考过程。
其于今年1月初发布的移动应用,在包括美国、英国和中国等主要市场的App Store排行榜上名列前茅。这一成绩的取得,得益于DeepSeek宣称其模型能以极低的成本提供可与行业领先产品相媲美的性能,这对美国AI公司构成了潜在挑战。然而,如同任何重大突破一样,DeepSeek也面临着诸多质疑。
华尔街的分析师们对DeepSeek的出现反应各异,以下是他们的观点:
- • Jefferies:DeepSeek的出现对AI训练的成本影响重大。它打破了因Meta和微软等公司近期大规模支出承诺(今年均超600亿美元)而引发的资本支出狂热。因其能以极小的计算力实现与GPT – 4o相当的性能,这对数据中心的建设者们可能产生负面影响,因为AI企业面临着为不断增加的资本支出计划提供合理解释的压力,最终可能导致数据中心收入和利润增长的轨迹变缓。此外,若小模型能良好运行,对智能手机行业可能是积极信号。目前AI在智能手机领域尚未获得消费者青睐,运行更大模型需要更多硬件升级(如先进封装和快速DRAM),这将增加成本。苹果的模型基于MoE,但30亿数据参数仍过小,难以让服务对消费者有用。所以,DeepSeek的成功带来了一些希望,但短期内对AI智能手机的前景无实质影响。另外,由于芯片限制,中国是唯一追求大语言模型(LLM)效率的市场。特朗普和马斯克可能意识到进一步限制的风险是迫使中国更快创新,因此特朗普可能会放宽AI扩散政策。
- • Citi:尽管DeepSeek的成就可能具有开创性,但Citi质疑其在不使用先进GPU进行微调或通过蒸馏技术构建基础LLMs的情况下取得如此成果的说法。虽然美国公司在最先进AI模型上的主导地位可能受到挑战,但在日益严格的环境下,美国能获取更先进芯片是一优势。因此,Citi预计领先的AI公司不会放弃使用能提供更具吸引力的每万亿次浮点运算成本($/TFLOPs)的先进GPU,近期如Stargate等AI资本支出的宣布,正是对先进芯片需求的认可。
- • Bernstein:Bernstein认为,首先,DeepSeek并没有“用500万美元打造出OpenAI”;其次,其模型虽出色,但并非奇迹;周末推特上对此事的恐慌有些过度。即便DeepSeek可能将实现同等模型性能的成本降低了10倍左右,但当前模型成本每年也在以类似幅度增长(即所谓的“缩放定律”),这种增长不可能永远持续。从这个角度看,AI要继续发展,就需要诸如混合专家(MoE)、蒸馏、混合精度等创新。对于寻求AI应用的人来说,作为半导体分析师,他们坚信杰文斯悖论,即效率提升会带来需求的净增长,任何新解锁的计算能力更可能因使用和需求的增加而被吸收,而非影响长期支出前景,因为他们认为AI对计算的需求远未达到极限。而且,很难相信DeepSeek所采用的创新,世界上众多其他顶级AI实验室的研究人员完全不知晓。
- • Morgan Stanley:Morgan Stanley表示尚未证实这些报告的真实性,但如果准确,且先进的大语言模型确实能以比之前少得多的投资开发出来,那么生成式AI最终可能在越来越小的计算机上运行(从超级计算机缩小到工作站、办公电脑,最终到个人电脑)。随着生成式AI需求的蔓延,SPE行业可能会因相关产品(芯片和SPE)需求的增加而受益。
- • Goldman Sachs:高盛指出,随着这一最新发展,一是可能出现资本雄厚的互联网巨头与初创企业之间的竞争,因为进入门槛降低,尤其是近期新模型的开发成本仅为现有模型的一小部分;二是从训练转向更多推理,更加注重训练后阶段(包括推理能力和强化能力),与预训练相比,这需要的计算资源大幅降低;三是中国企业凭借其性能和成本/价格竞争力,有进一步全球扩张的潜力。在中国,AI应用/AI代理的竞争预计将继续,尤其是在面向消费者(To – C)的应用领域,中国公司在互联网时代就是移动应用的先驱,例如腾讯创建的微信超级应用,字节跳动在过去一年推出了32个AI应用,其中豆包是目前中国最受欢迎的AI聊天机器人,月活用户约7000万,且最近升级到了豆包1.5 Pro模型。对于基础设施层,投资者关注的是,若成本/模型计算效率显著提高,市场对AI资本支出和计算需求的短期预期是否会出现不匹配。对于中国的云/数据中心企业,2025年的重点预计将围绕芯片供应,以及云服务提供商(CSP)能否从AI驱动的云收入增长中提高收入贡献,除了基础设施/GPU租赁,AI工作负载和AI相关服务未来如何为增长和利润率做出贡献。高盛对长期AI计算需求增长持乐观态度,因为计算/训练/推理成本的进一步降低可能推动更高的AI采用率。
- • J.P.Morgan:J.P.Morgan提到,DeepSeek的研究论文及其模型效率备受关注。目前尚不清楚DeepSeek在多大程度上利用了High – Flyer约5万个Hopper GPU(规模与OpenAI训练GPT – 5的集群类似),但他们似乎大幅降低了成本(例如,其V2模型的推理成本据称是GPT – 4 Turbo的七分之一)。其颠覆性(虽非全新)的观点——“更多投资并不等同于更多创新”本周开始冲击美国AI企业。梁文峰表示:“目前我没看到任何新方法,但大公司也没有明显优势。大公司有现有客户,但他们的现金流业务也是负担,这使他们随时可能受到颠覆。”当被问及GPT5尚未发布时,他称:“OpenAI不是神,他们不一定总能处于前沿。”
- • UBS:瑞银表示,2024年是中国出现大规模AI训练工作负载的第一年,超过80 – 90%的数据中心(IDC)需求由AI训练驱动,且集中在1 – 2个超大规模客户,这导致对相对偏远地区的超大规模IDC的批发需求增加(因为耗电的AI训练对公用事业成本敏感,而非用户延迟)。如果AI训练和推理成本显著降低,预计会有更多终端用户利用AI改善业务或开发新用例,尤其是零售客户。这种IDC需求意味着更关注位置(因为用户延迟比公用事业成本更重要),因此在一线城市和卫星城市拥有丰富资源的IDC运营商将拥有更大的定价权。同时,更多样化的客户组合也意味着更大的定价权。我们将持续关注更多分析师的反应并更新相关报道。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...