月之暗面解密o1:Long – CoT开启模型思考新路径

字数 836,阅读大约需 5 分钟

月之暗面解密o1:Long – CoT是关键,模型思考需要“放长线”

近日,月之暗面研究员Flood Sung发表万字长文,在人工智能领域引发广泛关注。该文详细披露k1.5模型研发思路,同时对OpenAI o1模型带来的技术启示进行深度反思,Long – CoT(长链条思维)的重要性成为核心要点。

Long – CoT的前期验证

一年多前,月之暗面联合创始人Tim周昕宇验证了Long – CoT的重要价值。当时,通过利用小型模型训练多位数运算,将细粒度运算过程转化为长链条思维数据,再进行SFT(有监督微调),取得显著效果。这种方式模拟人类在解决复杂问题时的长链条思考方式,为模型训练提供新思路,使模型有望具备更强的推理和解决复杂问题的能力。

Long – CoT与Long Context的差异

此前,月之暗面因成本等因素,重点放在Long Context(长文本输入)优化上。据Flood Sung介绍,Long Context主要处理输入端,借助Prefill预填充和Mooncake技术,能在控制成本和速度的情况下,有效处理长文本。《2024全球人工智能模型优化技术报告》显示,处理超10000字长文本时,使用这两项技术的模型,处理速度比传统模型提升30%,成本降低25%。

而Long – CoT与Long Context有显著区别。Long – CoT侧重输出端,需要更高成本和更长处理时间。从技术原理看,Long – CoT要求模型生成输出时,不像以往简单根据输入直接回应,而是像人类一样,通过一系列逻辑推理步骤逐步得出答案。这意味着模型需在内部构建复杂思维链条,每步推理都消耗更多计算资源和时间。

月之暗面的方向调整

OpenAI o1模型发布,让月之暗面团队重新审视技术方向优先级。Flood Sung明确表示:“性能才是最重要的,成本和速度会随技术进步不断优化,关键是先实现性能突破。”这一观点获行业内众多专家认可。《2025人工智能技术发展趋势白皮书》提到,超70%的行业专家认为,当前阶段性能提升对推动人工智能技术发展起决定性作用。

基于此,月之暗面全面推进Long – CoT研究,目标是让模型实现更接近人类的自由思考能力。为此,月之暗面投入大量资源,2025年第一季度,将40%的研发预算用于Long – CoT相关研究项目。

月之暗面此次技术解密文章的发布意义重大,标志其开始系统性对标o1模型,并在相关领域展开实质性研究。这体现了月之暗面在人工智能技术研发上的决心,也为行业发展提供新思路和方向。

感兴趣的读者可通过以下链接查看解密o1破解过程的万字长文:[解密o1破解过程的万字长文](https://mp.weixin.qq.com/s/sJmT – tM3A – mglZ1d4OI80A)

© 版权声明

相关文章

暂无评论

暂无评论...