字数 1129,阅读大约需 6 分钟

公司愿景与目标
Thinking Machines Lab旨在构建工具,实现“让人工智能为人们独特的需求和目标服务”,打造出比现有系统“更易于理解、可定制且功能更全面”的人工智能系统。
根据其发布的博客文章,当前AI虽取得显著进步,但仍存在“关键差距”。《2024年全球人工智能发展趋势》报告指出,随着AI技术快速发展,技术理解与应用间的鸿沟逐渐显现。目前科学界对前沿AI系统的理解滞后于其能力发展,关于这些系统如何训练的知识集中在少数顶级研究实验室手中,限制了公众对AI的讨论,也影响人们有效使用AI的能力。此外,尽管AI潜力巨大,人们仍难以根据自身特定需求和价值观对其进行定制。
为填补这些差距,Thinking Machines Lab计划专注构建“多模态”系统,这些系统能够“与人们协同工作”,“适应人类专业知识的全领域,实现更广泛的应用”。例如在科学和编程领域,他们正在打造处于能力前沿的模型。在科学研究领域,有效利用先进的AI模型,科研效率有望提升30% – 50%,这凸显了Thinking Machines Lab目标的重要性。
强大的团队阵容
米拉·穆拉蒂(Mira Murati)担任Thinking Machines Lab的首席执行官。她在AI领域经验丰富、成就卓越。2018年,她加入OpenAI担任应用AI与合作副总裁,2022年晋升为首席技术官,期间领导了ChatGPT、文本转图像AI DALL-E以及代码生成系统Codex等重要项目,Codex为GitHub的Copilot编程助手早期版本提供动力支持。
OpenAI联合创始人约翰·舒尔曼(John Schulman)出任公司首席科学家,前OpenAI首席研究官巴雷特·佐夫(Barret Zoph)担任首席技术官。该公司博客列出了来自OpenAI、Character AI和Google DeepMind等顶尖公司的29名员工,且目前仍在积极招聘机器学习科学家、工程师以及研究项目经理等职位。
AI安全成为核心原则
AI安全是Thinking Machines Lab工作的核心原则。随着AI技术广泛应用,其安全性问题备受关注。《2025年人工智能安全风险评估报告》显示,约60%的企业在使用AI技术时,担心出现数据泄露、模型被滥用等安全问题。
Thinking Machines Lab计划通过防止其发布的模型被滥用、与行业分享构建安全AI系统的最佳实践和方法,以及通过分享代码、数据集和模型规范来支持外部对齐研究等方式,为AI安全做贡献。
公司在博客文章中提到:“我们将专注于理解我们的系统如何在现实世界中创造真正的价值。最重要的突破往往来自于重新思考我们的目标,而不仅仅是优化现有指标。”这一理念与当前行业对AI安全的重视相符,显示出Thinking Machines Lab在推动AI安全发展方面的决心。
米拉·穆拉蒂的履历与行业影响
米拉·穆拉蒂在加入OpenAI之前,曾在特斯拉(Tesla)工作三年,担任Model X的高级产品经理。在此期间,特斯拉发布早期版本的Autopilot,这是一款基于AI的驾驶员辅助软件。她还曾在Leap Motion担任产品和工程副总裁,该公司专注为个人电脑打造手部和手指追踪运动传感器。
如今,米拉·穆拉蒂创立Thinking Machines Lab,加入众多前OpenAI高管创办初创公司的行列。例如伊利亚·苏茨克弗(Ilya Sutskever)创立Safe Superintelligence,以及Anthropic等公司,这些公司在AI领域有着不同探索方向和发展目标。这表明OpenAI培养的人才正以各自方式推动AI行业多元化发展。