<返回更多

全球AI实验室失控了吗?

2023-03-31  北京青年报  
加入收藏
   

“这是人类第一次集体反AI事件,必将记入史册。”有科技界人士在朋友圈写道。3月29日,由图灵奖得主、深度学习三巨头之一的约书亚·本吉奥,特斯拉(195.28, 1.40, 0.72%)公司CEO埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。公开信称,暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政府应该实行暂停令。截至目前,这封公开信已经有1100多名全球科技界人士联署。AI实验真的失控了吗?北京青年报记者发现,由ChatGPT引发的人工智能话题正在从科技和经济学问题演变成伦理和哲学命题。

“全球的AI实验室已经完全失控了”

AI威胁论是这封公开信的出发点。公开信表示,大量研究表明,具有与人类竞争智能的AI系统可能对社会和人类构成深远的风险,这一观点得到了顶级AI实验室的承认……最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

这封公开信提到,现在人工智能在一般任务上变得与人类一样有竞争力。对此,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,“在开始训练未来的系统之前,可能必须得到独立的审查,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。”

公开信呼吁暂停比GPT-4更强大的人工智能系统训练

公开信呼吁,所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。公开信中还写道,这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。“这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。”

基于此,这封信提出建议,人工智能的研究和开发应该重新聚焦于,使目前最先进和强大的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。同时,人工智能开发者必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。这些至少应该包括:专门针对人工智能的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力的硬件;出处和水印系统帮助区分真实和合成,并跟踪模型泄漏;强大的审查和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金以及资源充足的机构,以应对人工智能可能导致的巨大的经济和政治破坏。

图灵奖获得者表示AI消灭人类“并非不可想象”

在这个被外界戏称为人类首个“反AI联盟”的名单上,签名的目前有图灵奖得主约书亚·本吉奥(Yoshua Bengio,Stability AI首席执行官Emad Mostaque、纽约大学教授马库斯、特斯拉公司CEO马斯克,以及《人类简史》作者尤瓦尔·赫拉利等。签名人还包括苹果(162.36, 1.59, 0.99%)联合创始人史蒂夫·沃兹尼亚克、2020年美国总统选举民主党初选候选人杨安泽、AI经典教科书《人工智能: 一种现代方法》作者Stuart Russell等。两名来自微软(284.05, 3.54, 1.26%)的软件工程师,以及来自OpenAI“竞争对手”的研究员,包括谷歌(101.32, -0.58, -0.57%)旗下DeepMind的三位研究科学家也签下了自己的名字。

面对OpenAI产品在全球的火爆程度,OpenAI创始人兼CEO山姆·阿尔特曼近日在接受媒体采访时表示,自己对AI如何影响劳动力市场、选举和虚假信息的传播有些“害怕”。AI需要政府和社会共同参与监管,用户反馈和规则制定对抑制AI的负面影响非常重要。

“深度学习之父”、图灵奖的另外一名获得者杰弗里·辛顿 (Geoffrey Hinton)近日接受哥伦比亚广播公司采访时表示,AI消灭人类“并非不可想象”,人类需要警惕AI会给一小部分公司和政府带来巨大的权力。北青报记者注意到,部分学者提出要警惕“数字利维坦”,得到了许多网民的支持。

马斯克为何加入反对行列

许多观察人士认为,马斯克反对的其实不是人工智能,实际上,他反对的只是OpenAI和GPT。作为OpenAI的共同创始人之一,马斯克一直毫不掩饰他对OpenAI的敌意,认为其过度商业化,从开源变成了“闭源”,已经忘了非盈利和开放的“初心”。也有报道指出,马斯克之所以如此敌视OpenAI,是因为2018年争夺OpenAI经营权失败,所以撤资走人。美国《财富》杂志当时报道称,离开的原因是马斯克虽然支持人工智能,但特斯拉智能驾驶技术与OpenAI之间有“潜在利益冲突”。

还有报道称,马斯克在离开前提出过由他本人执掌OpenAI运营的建议,但遭到了拒绝。马斯克认捐了10亿美元,但截止到他离开时,其中9亿美元没有兑现。9亿美元的大窟窿迫使OpenAI走上商业化道路。这一转型获得了微软大力赞助。6个月后,微软注资10亿美元,并向OpenAI提供了基础设施和专业知识。他们一起建立了一台超级计算机来训练大规模的模型,最终创造了ChatGPT和图像生成器DALL-E。

关注

AI威胁到人类了吗?

人类对人工智能的担忧由来已久,清华大学梅汝璈法学讲席教授冯象早在2019年就发表过文章《人工智能让我们害怕什么》。他认为,从人机关系的视角看,主要包括两项巨大的挑战,一是机器替换人类,导致失业浪潮;二是人工智能的军事化。用美国科幻文学的口号来说,“未来已经来到”。

那么,身在其中的微软创始人比尔·盖茨是如何看待人工智能带来的负面影响的呢?公开报道中,比尔·盖茨将人工智能与芯片、个人电脑、互联网和手机相提并论,认为它将重新定义人类的学习、生产、生活和交流等。他认为,未来对企业的划分标准将通过一家公司如何使用GPT来进行制定。对于人工智能引发的担忧,比尔·盖茨认为,不安是社会对颠覆性新技术出现的本能反应。正因为人工智能模拟人类的思维和行事模式,因此产生的尖锐问题也必将很多。

AI威胁到人类了吗?一位在美国学习人工智能的博士对北青报记者表示,目前来看谈AI对人类的威胁还为时尚早,这封公开信背后展示的更多的是经济利益的版图。

同样是图灵奖的三大获奖者之一,Facebook的AI领头人杨力昆(Yann LeCun)就一直对OpenAI的大语言模型路径不屑一顾,认为其科技并无特别创新之处。北青报记者注意到,一名基金经理近期也在朋友圈发文称,以ChatGPT为代表的人工智能归根结底还是建立在0和1的代码程序上,而人类的思维是多维的,不相信机器人能够战胜人类。

对于人工智能这个突然出现在面前的“对手”,很多人没有做好心理准备。公开信在末尾提到:“如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,让我们享受一个漫长的人工智能夏天,而不是匆忙进入秋天。”

文/本报记者 朱开云

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>