领英联合创始人里德·霍夫曼为何对人工智能未来持乐观态度

字数 4420,阅读大约需 23 分钟

领英联合创始人里德·霍夫曼为何对人工智能未来持乐观态度
领英是全球知名的职业社交平台,连接了世界各地的职场人士,帮助用户建立职业人脉、寻找工作机会、展示职业成就等。

里德·霍夫曼为何对人工智能未来持乐观态度

在里德·霍夫曼(Reid Hoffman)的新作《超级能动性:我们的人工智能未来可能会怎样》Superagency: What Could Possibly Go Right With Our AI Future 中,这位领英联合创始人提出,人工智能能够扩展人类能动性,为我们带来更多知识、更好的工作以及更美好的生活,而非削弱人类的能力。

霍夫曼并非对该技术的潜在负面影响视而不见。实际上,他(与格雷格·比托(Greg Beato)共同撰写此书)将自己对人工智能以及更广泛意义上的技术的看法,描述为专注于“明智地冒险”,而非盲目乐观。霍夫曼表示:“一般来说,每个人都过度关注可能出错的地方,而对可能正确的地方关注不足。” 尽管他支持 “明智的监管”,但他认为,一个“迭代部署”的过程更为重要,即先将人工智能工具交到每个人手中,然后根据他们的反馈做出回应,以确保取得积极的成果。

他以汽车为例:“如今汽车能比刚发明时跑得更快,部分原因在于我们围绕刹车、安全气囊、保险杠和安全带等方面进行了一系列创新。创新并非不安全,实际上它能带来安全。” 在关于他新书的对话中,我们还探讨了霍夫曼(他曾是OpenAI董事会成员,现任微软董事会成员以及格雷洛克(Greylock)的合伙人)已从人工智能中看到的益处、该技术对气候的潜在影响,以及 “人工智能末日论者” 与 “人工智能悲观论者” 之间的区别。本次访谈为了篇幅和清晰度进行了编辑。

您此前已写过一本关于人工智能的书《即兴发挥》(Impromptu) 。那么在《超级能动性》中,您想说些什么之前未曾表达过的内容呢?

《即兴发挥》主要试图表明人工智能可以相对轻松地实现智能放大,并通过一系列方式进行展示和阐述。而《超级能动性》更多地探讨了人类能动性如何得到极大提升,这不仅源于超能力(这显然是其中一部分),还来自于我们的行业、社会的变革,当我们许多人都从这些新技术中获得超能力时,这种变革就会发生。围绕这些话题的普遍讨论往往始于严重的悲观情绪,然后转变为一种新的人类和社会的升华状态。人工智能只是这一系列颠覆性技术中的最新一项。《即兴发挥》并未过多地涉及到对实现这种更人性化未来的担忧。

您开篇将对人工智能的不同看法分为几类:悲观论者(gloomers)、末日论者(doomers)、乐观推动者(zoomers)和繁荣论者(bloomers)。我们可以深入探讨每一类,但先从繁荣论者开始,因为您将自己归为这一类。什么是繁荣论者,为什么您认为自己是其中一员呢?

我认为繁荣论者本质上对技术持乐观态度,相信构建技术对我们个人、群体、社会乃至全人类都非常有益,但这并不意味着任何能构建出来的东西都是伟大的。所以我们应该冒险前行,但要明智地冒险,而非盲目冒险,并且要通过对话和互动来引导技术发展。这也是我们在书中多次提及迭代部署的部分原因,因为与众多人进行对话的一种方式就是通过迭代部署。我们这样做是为了引导技术发展,比如 “哦,如果它是这种形式,对每个人都会好得多。而且它能在普遍性和影响力方面,限制那些不良情况的发生。”

当您谈到引导时,会涉及到监管,我们稍后会谈到这一点,但您似乎认为最大的希望在于这种迭代部署,尤其是大规模的迭代部署。您认为其好处是内在的吗?比如,如果我们将人工智能交到尽可能多的人手中,这本质上就是一种小规模民主吗?还是您认为产品需要以一种能让人们提供意见的方式来设计?

嗯,我认为这可能取决于不同的产品。但我们在书中试图阐述的一点是,能够参与并谈论产品——包括使用、不使用、以特定方式使用——实际上就是在进行互动并帮助塑造产品,对吧?因为开发产品的人会关注这些反馈。他们会关注:你参与了吗?你没有参与吗?他们会倾听人们在网上、媒体上的各种言论,比如 “嘿,这个很棒。” 或者 “嘿,这个真糟糕。” 这是大量来自众多人的引导和反馈,与我们从数据中可能获得的用于迭代的反馈,或者我可能通过投票或以某种方式表达的直接定向反馈是不同的。

我想深入了解这些机制是如何运作的,因为正如您在书中提到的,特别是ChatGPT变得极其受欢迎。所以如果我说 “嘿,我不喜欢ChatGPT的这个地方” 或者 “我对此有异议,我不会使用它”,这些声音很可能会被大量使用它的人淹没。

部分原因在于,有数亿人参与并不意味着要回应每个人的异议。比如有人可能会说:“汽车时速不应超过20英里。” 嗯,你这么想很好。关键在于反馈的总体情况。例如,如果你表达了一种挑战、犹豫或转变,而其他人也开始表达同样的观点,那么这种观点就更有可能被听到并促使改变。而且,OpenAI与Anthropic相互竞争,它们不仅密切关注当下所听到的内容,还会朝着人们想要的有价值的方向发展,并避开人们不想要的有挑战性的方面。

作为消费者,我们可能想利用这些工具,但它们可能以一些消费者不易察觉的方式造成潜在危害。这种迭代部署过程能否解决其他问题,比如社会层面的问题,而这些问题可能不会出现在个体消费者面前?

嗯,我写《超级能动性》这本书的部分原因,就是希望人们也能针对社会层面的问题展开对话。例如,有人说:“我认为人工智能会导致人们放弃自己的能动性,不再对自己的生活做出决策。” 然后人们去使用ChatGPT后会说:“嗯,我没有这种体验。” 如果实际上很少有人有这种(能动性丧失的)体验,那么这就是反对该观点的准论据,对吧?

您还谈到了监管。听起来您在某些情况下对监管持开放态度,但又担心监管可能会抑制创新。您能详细谈谈您认为有益的人工智能监管应该是什么样的吗?

嗯,有几个方面。实际上,我对明智的监管持积极态度。一方面,当你有非常具体、极其重要的事情需要预防时——比如恐怖主义、网络犯罪等其他情况。你基本上是在试图阻止这些严重的不良事件,同时允许广泛的其他活动,所以你可以讨论:针对这些特定结果,哪些措施能够足够精准地定位?除此之外,书中有一章讲到创新也是一种安全保障,因为随着创新,你会创造出新的安全和校准功能。这一点也很重要,就像汽车如今能比刚发明时跑得更快,是因为我们想出了围绕刹车、安全气囊、保险杠和安全带等一系列创新。创新并非不安全,实际上它能带来安全。我鼓励人们,尤其是在快速发展且不断迭代的监管环境中,将自己的具体担忧表述为可衡量的内容,并开始进行衡量。因为这样一来,如果发现某项衡量指标出现大幅增长或令人担忧的增长,就可以说:“好吧,让我们研究一下,看看能做些什么。”

您还对悲观论者和末日论者进行了区分——末日论者更关注超级智能带来的生存风险,而悲观论者更关注短期风险,如就业、版权等诸多问题。我读过的书中部分内容似乎更侧重于回应悲观论者的批评。

我想说这本书面向两类人群。一类是对人工智能持怀疑态度的人——包括悲观论者——到对人工智能好奇的人。另一类是技术专家和创新者,我想对他们说:“看,对人们真正重要的部分是人类能动性。所以,让我们将此作为未来产品设计的一个视角。通过以此为设计视角,我们还能帮助构建更能增强能动性的技术。”

目前或未来有哪些例子可以说明人工智能如何扩展而非削弱人类能动性呢?

《超级能动性》这本书试图阐述的一点是,人们往往将其简化为 “我能获得什么超能力?” 但他们没有意识到,当很多人都获得超能力时,我也能从中受益,这就是超级能动性。一个典型的例子就是汽车。哦,我可以去其他地方,但顺便说一下,当其他人也能去其他地方时,医生可以在你无法出门时上门为你看病。所以我们共同获得了超级能动性,这就是如今有价值的部分。我认为,就目前的人工智能工具而言,我们已经拥有了一系列超能力,其中包括学习能力。我不知道你是否试过,我曾要求它 “向一个5岁、12岁、18岁的孩子解释量子力学”。它还可以很有用,比如你将相机对准某物并问 “这是什么?” 比如识别蘑菇或树木。当然,还有一系列不同的语言任务。我写《超级能动性》时,并非技术史学家,而是一名技术专家和发明家。但在研究和撰写过程中,我会思考:“技术史学家会如何看待我在这里所写的内容呢?”

当您在书中谈到这些例子时,还提到当我们获得新技术时,有时旧技能会因为不再需要而消失,同时我们会发展新技能。在教育领域,也许这能让那些原本可能无法获取信息的人接触到这些信息。另一方面,您也确实听到过一些例子,有人被ChatGPT训练得习惯于直接接受聊天机器人给出的答案,而不是深入挖掘不同的信息来源,甚至没有意识到ChatGPT可能是错误的。

这确实是人们的担忧之一。顺便说一下,对于谷歌搜索和维基百科也曾有过类似的担忧,这并非新话题。就像对待这些工具一样,关键在于你必须学会何时可以依赖它,何时应该进行交叉核对,交叉核对的重要程度如何,而这些都是值得学习的好技能。我们都知道有人只是引用维基百科或在网上找到的其他内容,对吧?而这些内容可能不准确,能认识到这一点是很好的。顺便说一下,随着我们训练这些智能体变得越来越有用,准确性越来越高,可能会有一个智能体进行交叉核对并说:“嘿,有很多来源对这个内容提出了质疑。你想了解一下吗?” 这种信息呈现方式增强了你的能动性,因为它为你提供了一组信息,让你决定深入研究的程度、进行多少研究以及你所需的确定程度。这些都是我们进行迭代部署时所能获得的成果。

在书中,您谈到人们常常问 “可能会出什么问题?” 而您说 “那么,可能会有什么好的结果呢?这是我们需要更经常问的问题。” 在我看来,这两个问题都很有价值。你既不想排除好的结果,也想防范坏的结果。

是的,这就是繁荣论者的一部分观点。你对可能出现的好结果非常乐观,但这并不意味着你不考虑可能出现的坏结果。问题在于,一般来说,每个人都过度关注可能出错的地方,而对可能正确的地方关注不足。

您在其他采访中还提到了气候问题,我记得您说过人工智能对气候的影响被误解或夸大了。但您认为人工智能的广泛应用会对气候构成风险吗?

从根本上来说,不会,或者影响极小,原因有几点。首先,正在建设的人工智能数据中心都大力采用绿色能源,一个积极的连锁反应是,像微软、谷歌和亚马逊这样的公司为了实现这一点,正在大规模投资绿色能源领域。其次,当人工智能应用于这些问题时,例如,DeepMind发现他们可以为谷歌数据中心节省至少15% 的电力,而工程师们原本认为这是不可能的。最后一点是,人们往往过度描述它,因为它是当下热门话题。但如果看看过去几年我们的能源使用和增长情况,数据中心所占比例非常小,其中人工智能所占比例更小。

但部分担忧在于,未来几年数据中心和人工智能方面的增长可能相当显著。

它有可能增长到显著的程度。但这就是我从绿色能源角度出发的原因。

悲观论者观点中最有说服力的一个例子,也是您在书中引用的,是泰德·姜(Ted Chiang)的一篇文章,文章探讨了许多公司在谈论部署人工智能时,似乎秉持着一种麦肯锡式的思维方式,即不是为了释放新的潜力,而是为了削减成本和裁员。您对此感到担忧吗?

嗯,我确实担忧——更多是担忧转型过程,而非最终状态。我认为,正如我在书中所描述的,从历史上看,我们在应对这些转型时经历了很多痛苦和困难,我怀疑这次也会如此。我写《超级能动性》的部分原因,就是试图从过去的经验教训以及我们所拥有的工具中学习,以便更好地应对这次转型,但这始终充满挑战。我确实认为我们在一系列不同的工作转型中会遇到真正的困难。可能首先受到影响的是客服工作。企业往往——它们之所以是优秀的资本配置者,部分原因在于它们会思考 “如何从各种角度降低成本?” 但另一方面,当你思考这个问题时会发现,“这些人工智能技术能让人们的效率提高五倍,让销售人员的效率提高五倍。我会因此减少销售人员的招聘吗?不,我可能会招聘更多。” 再看看营销人员,营销与其他公司存在竞争关系等等。那么业务运营、法律或财务方面呢?嗯,所有这些领域往往都需要尽可能地进行风险缓解和管理。现在,我确实认为像客服这类工作岗位数量会减少,但这就是为什么我认为这是工作转型。关于人工智能的一个好消息是,它可以帮助你学习新技能,帮助你运用新技能,帮助你找到更适合自己技能组合的工作。确保在转型过程中构建这些工具,也是人类能动性的一部分。这并不是说这不会带来痛苦和困难,只是说 “我们能否更优雅地应对呢?”

© 版权声明

相关文章

暂无评论

暂无评论...