李彦宏深度剖析AI发展:技术、成本与未来走向

AI快讯2个月前发布 freeAI
0

字数 1485,阅读大约需 8 分钟

李彦宏深度剖析AI发展:技术、成本与未来走向
baidu

技术进步与成本降低:AI发展的核心主题

2025年2月11日,在阿联酋迪拜举办的World Governments Summit峰会上,百度创始人李彦宏与阿联酋AI部长奥马尔·苏丹·奥拉马展开关于AI基础设施未来发展趋势的深度对话。李彦宏针对下一代大模型训练,明确提出当前应聚焦技术进步和成本降低。

奥拉马在对话中提及近期DeepSeek引发全球关注,致使多家大型芯片厂商和交易所股价大幅波动的事件,并询问李彦宏对数据中心和AI基础设施未来的看法。李彦宏指出,尽管当前AI技术进步迅速,成本也在不断降低,但持续投入AI基础设施依旧是确保处于技术创新前沿的关键所在。

从技术层面看,深度学习算法不断演进,提升了大模型性能。《2024 – 2025全球人工智能技术发展报告》显示,在自然语言处理、计算机视觉等领域,大模型的准确率和泛化能力有质的飞跃。技术进步需大量研发投入和持续创新,如OpenAI研发GPT系列模型,从GPT – 1到GPT – 4,模型参数量呈指数级增长,性能也大幅提升。

同时,成本问题制约大模型发展。训练大规模语言模型需消耗大量算力资源,据行业调研机构数据,训练像GPT – 3这样的超大规模模型,单次训练成本高达数百万美元,包括硬件设备采购、维护及电力消耗等。因此,降低成本是推动大模型广泛应用的关键。

持续投入基础设施,打造下一代智能模型

李彦宏强调,为在技术创新革命中保持领先,需对芯片、数据中心和云基础设施持续投入,打造更好、更智能的下一代模型。

芯片作为AI计算核心硬件,性能影响模型训练效率。近年来,英伟达推出专为AI计算设计的芯片,如A100、H100等,为大模型训练提供算力支持。但随着模型规模扩大,对芯片性能要求更高,持续投入芯片研发,提升计算效率和能耗比成为当务之急。

数据中心承载AI计算任务,其建设和优化至关重要。《全球数据中心发展趋势报告》显示,全球数据中心数量和规模以每年两位数速度增长,但能耗问题日益突出。为降低能耗、提高运行效率,需采用先进制冷技术、电源管理技术等。此外,云基础设施为大模型训练提供灵活高效解决方案,企业和研究机构通过云计算平台按需获取算力资源,降低前期硬件投资成本。

探索高效训练路径,平衡投入与回报

李彦宏指出,寻找更高效训练路径需投入大量算力尝试,前期投入可能巨大,但找到捷径可显著降低训练成本。大模型训练中,训练算法优化是提高训练效率关键。例如,随机梯度下降算法及其变体在深度学习中广泛应用,但模型规模增大时,传统随机梯度下降算法在收敛速度和计算资源利用效率方面面临挑战。因此,研究人员探索新训练算法,如自适应学习率调整算法、分布式训练算法等。

奥拉马对此表示担忧,认为类似赌徒困境,投入大量资金后有收回成本压力。这种担忧有一定道理,AI领域发展中,许多企业和研究机构前期投入大量资源研发,因技术瓶颈、市场需求变化等未实现预期回报。过去几年,约30%的AI初创企业因资金链断裂倒闭。

李彦宏持乐观态度,认为大语言模型已在各种场景创造大量价值。以百度为例,已有数十万客户使用大模型提高招聘、电子商务、医疗保健等领域效率。招聘领域,大模型智能筛选和匹配简历,提高招聘效率、降低人力成本;电子商务领域,大模型用于个性化推荐、智能客服等,提升用户体验、促进销售增长;医疗保健领域,大模型辅助医生疾病诊断、药物研发等,提高医疗服务质量和效率。

ToC领域超级应用待发掘

尽管ToB领域有许多应用案例,但ToC领域尚未出现移动互联网时代或社交媒体那样的超级应用。李彦宏表示,整个世界都在寻找这样的超级App,ChatGPT等应用虽表现出色,但距真正超级应用还有距离。

ToC领域用户需求更丰富多元,一款成功的ToC超级应用需满足海量用户不同需求,具备高用户粘性和传播性。目前基于大语言模型的ToC应用,如智能聊天机器人、写作辅助工具等,在功能和用户体验上存在局限。例如,智能聊天机器人处理复杂语义和上下文理解不够准确,写作辅助工具生成内容的创意和个性化有待提高。

市场研究机构预测,未来几年ToC领域有望出现基于大模型的杀手级应用,市场规模将达数千亿美元。各大科技公司加大在这一领域研发投入,抢占市场先机。

© 版权声明

相关文章

暂无评论

暂无评论...