<返回更多

DeepMind联合创始人:生成式AI只是一个阶段,接下来是交互式AI(智能体)可通过调用其他软件和其他人来完成为他们设置的任务

2023-09-18    编程公开课
加入收藏

DeepMind 联合创始人 Mustafa Suleyman 希望构建一个聊天机器人,其功能远不止聊天。在我最近与他的一次谈话中,他告诉我生成式人工智能只是一个阶段。接下来是交互式人工智能:机器人可以通过调用其他软件和其他人来完成你为他们设置的任务。他还呼吁加强监管,并且认为这并不难实现。

苏莱曼并不是唯一一个谈论未来充满更多自主软件的人。但与大多数人不同的是,他拥有一家价值数十亿美元的新公司 Inflection,拥有一批从 DeepMind、Meta 和 AI target=_blank class=infotextkey>OpenAI 中挑选出来的顶级人才,并且由于与 Nvidia 达成的协议,成为最大的专业人工智能硬件库存之一在世界上。苏莱曼已经把他的钱放到了嘴边——他告诉我他对此既不感兴趣,又想赚更多钱。

至少自 2016 年初我们第一次交谈以来,Suleyman 一直坚信技术是一种向善的力量。他刚刚推出了 DeepMind Health,并与英国一些国营的地区医疗保健提供商建立了研究合作关系。

我当时工作的杂志即将发表一篇文章,声称 DeepMind在访问约 160 万患者的记录以建立这些合作时未能遵守数据保护法规——这一说法后来得到了政府调查的支持。苏莱曼不明白我们为什么要发表一篇敌视他的公司改善医疗保健的努力的报道。他当时告诉我,从他记事起,他就只想在这个世界上行善。  

自那通电话发出以来的七年里,苏莱曼的使命没有发生任何改变。他在位于帕洛阿尔托的办公室通过 Zoom 说道:“我们的目标从来都不是别的,而是如何为世界做好事。”这位英国企业家现在大部分时间都在那里度过。

Suleyman 离开 DeepMind 并转到谷歌,领导一个致力于人工智能政策的团队。2022 年,他创立了 Inflection,这是最热门的新型人工智能公司之一,得到了微软、英伟达、比尔·盖茨和 LinkedIn 创始人里德·霍夫曼 15 亿美元投资的支持。今年早些时候,他发布了一个名为Pi的 ChatGPT 竞争对手,其独特的卖点(根据 Suleyman 的说法)是它令人愉快且有礼貌。他刚刚与作家兼研究员 Michael Bhaskar 合着了一本关于人工智能未来的书,名为《即将到来的浪潮:技术、权力和 21 世纪最大的困境》。

许多人会嘲笑苏莱曼的技术乐观主义——甚至是天真。例如,他关于在线监管成功的一些说法让人感觉不太对劲。但他仍然坚信自己的信念是真诚的和福音派的。 

确实,作为科技千万富翁,苏莱曼有着不同寻常的背景。19 岁时,他从大学退学,成立了穆斯林青年热线,提供电话咨询服务。他还曾在当地政府工作。他说,他将这些努力中的许多价值观带到了 Inflection 中。不同的是,现在他可能能够做出他一直想要的改变——无论是好是坏。 

 

问:你早期的职业生涯,包括青年帮助热线和当地政府工作,是最平庸、最不硅谷的。显然,这些东西对你很重要。从那时起,您已经在人工智能领域工作了 15 年,并于今年共同创立了您的第二家价值 10 亿美元的人工智能公司。你能把这些点连起来吗?

Suleyman:我一直对权力、政治等感兴趣。你知道,人权原则基本上是一种权衡,是所有这些不同的冲突紧张局势之间不断进行的谈判。我可以看到人类正在努力解决这个问题——我们充满了自己的偏见和盲点。激进分子的工作、地方、国家、国际政府等等——这一切都是缓慢、低效且容易出错的。

想象一下,如果你没有人类的错误。我认为有可能构建真正反映我们最好的集体自我的人工智能,并最终代表我们做出更好的权衡,更一致、更公平。

 

问:这仍然是你的动力吗?

Suleyman:当然,我的意思是,在 DeepMind 之后我再也不用工作了。我当然不必写一本书或类似的东西。金钱从来都不是动力。你知道,这始终只是副作用。

对我来说,目标从来不是别的,而是如何为世界做好事以及如何以健康、令人满意的方式推动世界前进。即使早在 2009 年,当我开始考虑进入技术领域时,我就可以看到人工智能代表了一种在世界上提供服务的公平而准确的方式。

我不禁想到,在 10 或 15 年前,在我们看到这项技术的许多缺点之前,说这种话会更容易。你怎样才能保持乐观呢?

我认为我们很关心你是乐观主义者还是悲观主义者。这是一种完全带有偏见的看待事物的方式。我也不想成为这样的人。我想冷眼面对利益和威胁。从我的立场来看,我们可以非常清楚地看到,随着这些大型语言模型规模的每一步扩大,它们变得更加可控。

所以两年前,谈话——我当时认为这是错误的——是“哦,他们只会发表有毒的、反胃的、有偏见的、种族主义的长篇大论。” 我当时想,这是时间的快照。我认为人们忽视的是年复一年的进步,以及这种进步的轨迹。

例如,现在我们有了像 Pi 这样的模型,它们的可控性令人难以置信。你不能让 Pi 产生种族主义、恐同、性别歧视等任何有毒的东西。你无法让它指导你生产生物或化学武器,或者支持你向邻居的窗户扔一块砖头的愿望。

 

问:不挂断。告诉我你是如何实现这一目标的,因为这通常被认为是一个未解决的问题。如何确保您的大型语言模型不会说出您不希望它说出的内容?

Suleyman:是的,很明显我不想提出这样的要求——你知道,请尝试这样做!Pi 已上线,您应该尝试所有可能的攻击。越狱、即时黑客或任何对 Pi 都不起作用的东西。我不会提出主张。这是客观事实。

 

问:关于如何——我的意思是,我不会透露太多细节,因为它很敏感。但最重要的是,我们拥有世界上最强大的团队之一,他们创建了过去三四年来所有最大的语言模型。令人惊叹的人们,在极其勤奋的环境中,进行大量的计算。我们从一开始就把安全放在第一位,因此 Pi 并不像其他公司的模型那么辣。

Suleyman:看看Character.ai。[角色是一个聊天机器人,用户可以为其打造不同的“个性”并在线分享以供其他人聊天。]它主要用于浪漫的角色扮演,我们从一开始就说过这是不可能的——我们不会”不要这样做。如果你试图对 Pi 说“嘿,亲爱的”或“嘿,小可爱”之类的话,它会立即拒绝你。

但这将是令人难以置信的尊重。如果你开始抱怨你所在社区的移民抢走了你的工作,Pi 不会对你大喊大叫,也不会对你摇手指。Pi 会询问并提供支持,并尝试了解这些信息从何而来,并温和地鼓励您产生同理心。你知道,这是我 20 年来一直在思考的价值观。

 

问:谈论您的价值观并希望让世界变得更美好,为什么不分享您是如何做到这一点的,以便其他人也可以改进他们的模型呢?

Suleyman:嗯,因为我也是一个实用主义者,我正在努力赚钱。我正在努力创办一家企业。我刚刚筹集了 15 亿美元,我需要支付这些筹码的费用。

看,开源生态系统正在火热进行中,并且做得非常出色,人们正在发现类似的技巧。我总是假设我只领先六个月。

 

问:让我们回到你想要实现的目标。大型语言模型显然是当前的技术。但你为什么还要押注于他们呢?

Suleyman:人工智能的第一波浪潮是关于分类的。深度学习表明,我们可以训练计算机对各种类型的输入数据进行分类:图像、视频、音频、语言。现在我们正处于生成浪潮中,您可以获取输入数据并生成新数据。

第三波将是互动阶段。这就是为什么我长期以来一直坚信对话是未来的界面。你知道,你将与你的人工智能交谈,而不是仅仅点击按钮和打字。

这些人工智能将能够采取行动。你只需给它一个总体的、高层次的目标,它就会使用它所拥有的所有工具来实现这一目标。他们会与其他人交谈,与其他人工智能交谈。这就是我们要对 Pi 做的事情。

这是技术所能实现的巨大转变。这是技术史上一个非常非常深刻的时刻,我认为很多人都低估了这一时刻。当今的技术是静态的。粗略地说,它会执行您告诉它执行的操作。

但现在技术将变得生动起来。如果你给予它,它将有潜在的自由来采取行动。我们正在创造具有这种代理作用的工具,这确实是我们物种历史上的一步变化。

 

问:这正是让很多人担心的言论。你想赋予机器自主权——一种机构——来影响世界,但我们也希望能够控制它们。你如何平衡这两件事?感觉那里有一种紧张气氛。

Suleyman:是的,这是一个很好的观点。这正是紧张的原因。 

这个想法是人类将永远保持指挥权。从本质上讲,它是关于设定人工智能无法跨越的边界和限制。并确保这些边界创造了可证明的安全性,从实际代码到与其他人工智能(或人类)交互的方式,再到创建该技术的公司的动机和激励。我们应该弄清楚独立机构甚至政府如何直接进入以确保这些界限不被跨越。

 

问:谁设定这些界限?我认为它们需要在国家或国际层面上设定。他们是如何达成一致的?

Suleyman:我的意思是,目前它们正在国际层面上提出,并提出了关于新的监督机构的各种建议。但边界也会在微观层面发挥作用。你将给予你的人工智能一些有限的权限来处理你的个人数据,为你提供一些问题的答案,但不能回答其他问题。

总的来说,我认为在可预见的未来,我们应该对某些能力非常谨慎,甚至排除。

 

问:例如?

Suleyman:我猜想是递归自我完善之类的事情。你不会想让你的小人工智能在没有你监督的情况下启动并更新自己的代码。也许这甚至应该是一项获得许可的活动——你知道,就像处理炭疽或核材料一样。

或者,我们不允许无人机出现在任何公共场所,对吗?这是一项获得许可的活动。你不能把它们带到任何你想去的地方,因为它们对人们的隐私构成威胁。

我认为每个人都非常恐慌,因为我们无法对此进行监管。这只是无稽之谈。我们完全能够对其进行监管。我们将应用以前成功的相同框架

 

问:但是当无人机在天空中时你可以看到它们。认为公司只会透露他们正在生产的产品的想法显得很天真。这难道不会让监管变得棘手吗?

Suleyman:我们在网上监管了很多事情,对吗?网上欺诈和犯罪活动的数量很少。我们在垃圾邮件方面做得很好。你知道,总的来说,复仇色情的[问题]已经有所改善,尽管三五年前情况还很糟糕。在网上找到激进内容或恐怖分子材料非常困难。在网上购买武器和毒品非常困难。

[苏莱曼的所有主张并非都有数字支持。网络犯罪仍然是一个严重的全球问题。据一些估计,在过去十年中,仅美国的财务成本就增加了100 多倍。报告显示,未经同意的深度伪造色情内容的经济正在蓬勃发展。毒品和枪支在社交媒体上销售。虽然一些在线平台被迫更好地过滤有害内容,但它们可以做得更多。]

因此,互联网并不是一个不受监管、难以驾驭的空间。它受到管辖。人工智能将成为治理的另一个组成部分。

这需要文化压力、制度压力以及政府监管的共同作用。但这让我乐观地认为我们以前已经做到了,而且我们可以再次做到。

控制人工智能将成为互联网监管的一个分支——这比我们最近从一些备受瞩目的末日论者那里听到的乐观得多。

我对风险非常乐观。我的书里有很多黑暗的东西。我肯定也看到了。我只是认为存在风险的东西完全是一种疯狂的干扰。我们都应该讨论 101 个更实际的问题,从隐私到偏见,从面部识别到在线审核。

我们应该将谈话的焦点重新集中在这样一个事实上:我们在监管超级复杂的事物方面做得非常出色。看看联邦航空管理局:令人难以置信的是,我们都进入了 40,000 英尺高空的锡管,而且这是有史以来最安全的运输方式之一。我们为什么不庆祝一下呢?或者想想汽车:每个部件都在其寿命的最后一刻进行压力测试,并且您必须拥有驾驶执照。

一些行业(例如航空公司)一开始就在自我监管方面做得很好。他们知道,如果不确保安全,每个人都会感到害怕,他们也会失去生意。

但你也需要自上而下的监管。我爱民族国家。我相信公共利益,我相信税收和再分配的好处,我相信监管的力量。我所呼吁的是民族国家采取行动来解决问题。考虑到事关重大,现在是采取行动的时候了。

 

本文源自MIT Technology Review《麻省理工科技评论》。

关键词:生成式AI      点击(10)
声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多生成式AI相关>>>