<返回更多

比尔盖茨5500字长文:人工智能风险可控,会带来PC问世一样的冲击

2023-07-12  腾讯科技  
加入收藏

腾讯科技讯 7月12日消息,微软创始人比尔·盖茨(Bill Gates)周二发表博客文章称,人工智能的未来不会像一些人想象的那么严峻、也不会像一些人想象的那么乐观。人工智能的风险确实存在,但仍可控制。盖茨认为,人工智能的影响不会像工业革命那样巨大,但会像个人计算机问世那样带来重大冲击,许多由人工智能引发的的问题可以通过人工智能自身来解决。

以下为文章全文:

人工智能带来的风险可能看起来势不可挡。被智能机器抢了饭碗的人会怎么样?人工智能会影响选举结果吗?如果未来的人工智能决定不再需要人类,并想摆脱人类,那该怎么办?

这些都是公平的问题,它们引起的关注需要认真对待。但有一个很好的理由认为我们可以应对它们:重大创新带来了必须加以控制的新威胁,这已不是第一次出现。我们以前经历过这些。

无论是汽车的问世,还是个人电脑和互联网的兴起,人类都经历了变革时刻。尽管变革过程中出现许多动荡,但最终都变得更好。第一辆汽车上路后不久,就发生了第一起车祸。但我们并未禁止汽车--而是制定出限速、安全标准、驾驶证、酒后驾驶法和其他交通规则。

我们现在正处于另一场深刻变革的雏形阶段,即人工智能时代。这类似于限速和安全带之前的那些不确定时期。人工智能变化如此之快,以至于还不清楚接下来会发生什么。我们正面临着由当前技术的运行方式、人们将利用它进行不良企图的方式、以及人工智能将改变社会所提出的重大问题。

在这样的时刻,感到不安是很自然的。不过历史表明,解决新技术带来的挑战是可能的。

我之前写过人工智能将如何彻底改变我们的生活。它将有助于解决健康、教育、气候变化等问题,这些问题过去似乎很难解决。盖茨基金会将此作为优先事项,我们的首席执行官马克·苏兹曼(Mark Suzman)最近分享了他对人工智能在减少不平等中的作用的想法。

关于人工智能的好处,我将在未来有更多的话要说,但在这篇文章中,我想承认我最常听到和读到的担忧,其中许多我都有同感。我还会解释我对它们的看法。

从迄今为止所有关于人工智能风险的文章中可以清楚地看出,没有人知道所有的答案。另一件对我来说很清楚的事情是,人工智能的未来并不像一些人认为的那样严峻,也不像其他人认为的那样乐观。风险是真实存在的,但我乐观地认为它们是可以控制的。在讨论每个问题时,我会回到几个主题:

--人工智能引发的许多问题都有历史先例。例如,它将对教育产生重大影响。但几十年前手持计算器也是如此。最近,学校已允许学生带着计算机进入教室。我们可以从过去的经历中学习。

--人工智能带来的很多问题,也可以借助人工智能来管理这些问题。

--我们需要修改旧法律,采用新法律--正如现有的反欺诈法律必须适应网络世界一样。

在这篇文章中,我将重点关注已经存在或即将存在的风险。我不是在处理当我们开发一个可以学习任何主题或任务的人工智能时会发生什么,这与今天专门开发的人工智能相反。无论我们是在十年还是一个世纪后达到这一点,社会都需要考虑一些深刻的问题。如果一个超级人工智能建立了自己的目标呢?如果它们与人类的冲突呢?我们到底该不该制造一个超级人工智能?

但考虑这些长期风险不应以牺牲更为紧迫的风险为代价。我现在就谈谈这些问题:

人工智能产生的虚假和错误信息可能会破坏选举和民主

技术可以用来传播谎言和不实之词的想法并不新鲜。几个世纪以来,人们一直用书籍和传单来做这件事。随着文字处理器、激光打印机、电子邮件和社交网络的出现,这变得容易多了。

人工智能解决了虚假文本的问题,并对其进行了扩展,几乎允许任何人创建虚假的音频和视频,即深度伪造(Deepfakes)。如果你收到一条语音信息,听起来像是你的孩子在说“我被绑架了,请在接下来的10分钟内向这个银行账户汇1000美元,不要报警”。这将产生可怕的情绪影响,远远超过一封写着同样内容的电子邮件的影响。

在更大的范围内,人工智能生成的深度伪造可以用来试图倾斜选举。当然,对选举的合法获胜者产生怀疑并不需要复杂的技术,但人工智能将使这变得更容易。

已经有一些虚假的视频以著名政治家的虚构镜头为主角。想象一下,在一场重大选举的早晨,一段显示一名候选人抢劫银行的视频在网上疯传。这是假的,但需要新闻媒体和竞选团队几个小时来证明。有多少人会看到后在最后一刻改变投票?这可能会扭转局势,尤其是在势均力敌的选举中。

AI target=_blank class=infotextkey>OpenAI的联合创始人山姆·奥特曼(Sam Altman)最近在美国参议院委员会参加庭审时,两党的参议员都聚焦于人工智能对选举和民主的影响。我希望这个问题继续提上每个人的议事日程。

我们当然还没有解决误传和造假的问题。但有两件事让我保持谨慎乐观。一是人们有能力学会不要从表面上看一切。多年来,电子邮件用户陷入骗局,有人冒充尼日利亚王子,承诺给一大笔钱,作为交换,分享你的信用卡号码。但最终,大多数人都学会了多看那些邮件。随着骗局变得越来越复杂,他们的许多目标也变得越来越复杂。

另一件让我充满希望的事情是,人工智能可以帮助识别深度伪造。例如,英特尔开发了一款深度伪造检测器,美国国防部高级研究计划局(DARPA)正在研究识别视频或音频是否被操纵的技术。

这将是一个循环的过程:有人找到了检测造假的方法,有人想出了应对的方法,有人制定了反制措施,等等。不会是完美的成功,但我们也不会束手无策。

人工智能使得对人民和政府发动攻击变得更加容易

今天,当黑客想要找到软件中可利用的缺陷时,他们会通过暴力来实现--编写代码,攻击潜在的弱点,直到他们找到进入的方法。这需要走很多死胡同,这意味着需要时间和耐心。

想要对抗黑客的安全专家不得不做同样的事情。你在手机或笔记本电脑上安装的每一个软件补丁,都代表着人们出于善意或恶意进行的长时间搜索。

人工智能模型将通过帮助黑客编写更有效的代码来加速这一过程。他们还能够利用个人的公开信息,如他们在哪里工作,他们的朋友是谁,来开发比我们今天看到的更高级的网络钓鱼攻击。

好消息是,人工智能既可以用于好的目的,也可以用于坏的目的。政府和私营部门的安全团队需要拥有最新的工具来发现和修复安全漏洞,以免被犯罪分子利用。我希望软件安全行业将扩展他们在这方面已经做的工作--这应该是他们最关心的问题。

这也是为什么我们不应该像一些人提议的那样,试图暂时阻止人们实现人工智能的新发展。网络罪犯不会停止制造新工具。想用人工智能设计核武器和生物恐怖袭击的人也不会。阻止它们的努力需要以同样的速度继续下去。

在全球层面也有一个相关的风险:人工智能领域的开发竞赛可以用来设计和发动针对其他国家的网络攻击。每个政府都希望拥有最强大的技术,这样就可以阻止对手的攻击。这种不让任何人领先的激励可能会引发一场制造越来越危险的网络武器的竞赛。每个人都会变得更糟。

这是一个可怕的想法,但我们有历史来指引我们。尽管世界核不扩散机制有其缺陷,但它阻止了我们这一代人在成长过程中非常害怕的全面核战争。各国政府应该考虑为人工智能创建一个类似于国际原子能机构的全球性机构。

人工智能会抢走人的工作

未来几年,人工智能对工作的主要影响将是帮助人们更高效地完成工作。无论他们是在工厂还是在处理销售电话和应付账款的办公室工作,都是如此。最终,人工智能将能够很好地表达想法,它将能够为你写电子邮件和管理你的收件箱。

你将能够用简单的英语或任何其他语言写一个请求,并对你的工作做一个丰富的介绍。

正如我在2月份的文章中所说,生产率提高对社会有益。它让人们有更多的时间去做其他事情,无论是在工作中还是在家里。对帮助他人的人的需求--例如,教书、照顾病人和赡养老人--永远不会消失。但确实,随着我们向人工智能驱动的工作场所过渡,一些工人将需要支持和再培训。这是政府和企业的职责,他们需要很好地管理它,这样工人就不会被落下--以避免在美国制造业就业岗位下降期间发生的那种对人们生活的破坏。

此外,请记住,这不是第一次新技术导致劳动力市场的大转变。我不认为人工智能的影响会像工业革命那样引人注目,但它肯定会像个人电脑的引入一样巨大。文字处理应用程序并没有消除办公室工作,但它们永远改变了办公室工作。雇主和雇员必须适应,他们做到了。人工智能带来的转变将是一个坎坷的转变,但我们完全有理由认为,我们可以减少对人们生活和生计的破坏。

人工智能继承了人类的偏见,编造了一些东西。

幻觉--这个术语指的是当人工智能自信地做出一些根本不真实的断言时--通常是因为机器不理解你的请求的上下文而发生的。让一个人工智能写一个关于去月球度假的小故事,它可能会给你一个非常有想象力的答案。但是让它帮你计划一次去坦桑尼亚的旅行,它可能会试着把你送到一个不存在的酒店。

人工智能的另一个风险是,它反映甚至加剧了对某些性别身份、种族、民族等人群的现有偏见。

为了理解为什么会出现幻觉和偏见,重要的是要知道当今最常见的人工智能模型是如何工作的。它们本质上是非常复杂的代码版本,可以让你的电子邮件应用程序预测你将要键入的下一个单词:它们扫描大量的文本--在某些情况下,几乎是网上可以找到的所有内容--并对其进行分析,以找到人类语言的模式。

当你向人工智能提出问题时,它会查看你使用的单词,然后搜索经常与这些单词相关联的文本块。如果你写“列出薄煎饼的配料”,它可能会注意到“面粉、糖、盐、发酵粉、牛奶和鸡蛋”这些词经常与这个短语一起出现。然后,基于它所知道的这些单词通常出现的顺序,它生成一个答案。(以这种方式工作的人工智能模型使用的是所谓的变压器。GPT-4就是这样一个模型。)

这个过程解释了为什么人工智能可能会出现幻觉或出现偏见。你问的问题和你告诉它的事情都没有上下文。如果你告诉一个人它犯了一个错误,它可能会说,“对不起,我打错了。”但那是一种幻觉——它没有打出任何东西。它只是说,因为它扫描了足够多的文本,知道“对不起,我打错了那个”是人们经常在有人纠正他们后写的句子。

类似地,人工智能模型继承了他们接受训练的文本中的任何偏见。如果一个人读了很多关于内科医生的书,并且书中大部分都提到了男医生,那么它的答案会假设大多数医生都是男性。

虽然有些研究者认为幻觉是一个固有的问题,但我不同意。我乐观地认为,随着时间的推移,人工智能模型可以被教会区分事实和虚构。例如,OpenAI正在这方面做着有希望的工作。

其他组织,包括艾伦图灵研究所和国家标准与技术研究所,都在致力于解决偏见问题。一种方法是将人类价值观和更高级的推理构建到人工智能中。这类似于一个有自我意识的人的工作方式:也许你认为大多数医生都是男人,但你足够意识到这个假设,知道你必须有意识地与之斗争。人工智能可以以类似的方式运作,特别是如果模型是由来自不同背景的人设计的。

最后,每个使用人工智能的人都需要意识到偏见问题,并成为一个知情的用户。你让人工智能起草的文章可能充满偏见,也可能存在事实错误。你需要检查你的人工智能和你自己的偏见。

学生不会学习写作,因为人工智能会替他们做。许多教师担心人工智能会破坏他们与学生的工作。在一个任何可以上网的人都可以使用人工智能来写一篇体面的论文初稿的时代,有什么可以阻止学生把它作为自己的作品来提交呢?

已经有一些人工智能工具正在学习辨别某个东西是由人还是由计算机写的,这样老师就可以知道他们的学生什么时候没有做自己的作业。但是一些老师并没有试图阻止他们的学生在写作中使用人工智能--他们实际上是在鼓励它。

今年1月,一位名叫切丽·希尔兹(Cherie Shields)的资深英语教师在《教育周刊》上写了一篇关于她如何在课堂上使用ChatGPT的文章。它帮助她的学生从开始写论文到写提纲,甚至给他们工作上的反馈。

“教师将不得不接受人工智能技术,作为学生可以使用的另一种工具,”她写道。“就像我们曾经教学生如何进行正确的谷歌搜索一样,教师应该围绕ChatGPT机器人如何帮助论文写作设计清晰的课程。承认人工智能的存在并帮助学生使用它可能会彻底改变我们的教学方式。”不是每个老师都有时间学习和使用一种新工具,但像切丽·希尔兹这样的教育家提出了一个很好的论点,那些这样做的人将受益匪浅。

这让我想起了20世纪70年代和80年代电子计算器普及的时候。一些数学老师担心学生会停止学习如何做基本算术,但其他人接受了新技术,并专注于算术背后的思维技能。

人工智能还可以通过另一种方式帮助写作和批判性思维。尤其是在这些早期,当幻觉和偏见仍然是一个问题时,教育者可以让人工智能生成文章,然后与他们的学生一起检查事实。我资助的汗学院和OER项目等教育非营利组织为教师和学生提供免费的在线工具,这些工具非常重视测试断言。很少有技能比知道如何辨别真假更重要。

我们确实需要确保教育软件有助于缩小成绩差距,而不是让它变得更糟。今天的软件主要是面向那些已经有动力的学生。它可以为你制定学习计划,为你指出好的资源,并测试你的知识。但是它还不知道如何把你带入一个主题

你已经不感兴趣了。这是开发者需要解决的问题,以便所有类型的学生都能从人工智能中受益。

下一步是什么?

我相信有更多的理由不乐观,我们可以管理人工智能的风险,同时最大化其利益。但是我们需要尽快行动。

政府需要积累人工智能方面的专业知识,以便能够制定明智的法律法规来应对这一新技术。他们需要努力应对错误信息和虚假信息、安全威胁、就业市场的变化以及对教育的影响。仅举一个例子:法律需要明确深度伪造的哪些使用是合法的,如何标记深度伪造,以便每个人都明白他们看到或听到的内容不是真的。

政治领导人需要具备与选民进行知情、深思熟虑的对话的能力。他们还需要决定在这些问题上与其他国家合作的程度,而不是单干。

在私营部门,人工智能公司需要安全负责地开展工作。这包括保护人们的隐私,确保他们的人工智能模型反映基本的人类价值观,最大限度地减少偏见,让尽可能多的人受益,以及防止技术被犯罪分子或恐怖分子使用。许多经济领域的公司将需要帮助他们的员工向以人工智能为中心的工作场所过渡,以便没有人被落下。客户应该总是知道他们何时与人工智能而不是人类互动。

最后,我鼓励每个人尽可能地关注人工智能的发展。这是我们有生之年将会看到的最具变革性的创新,健康的公共辩论将取决于每个人对该技术及其好处和风险的了解。好处将是巨大的,相信我们能够管理风险的最好理由是我们以前做过。(无忌)

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>