在OpenAI的带领下,GPT一遍又一遍地冲破人们对于AI的预期。
而在对GPT-4进行一系列实验后,微软研究团队也在报告中承认大模型背后的AI潜力:GPT-4是使用前所未有的计算和数据规模训练出来的,而除了对语言的掌握,GPT-4还能解决跨越数学、编码、视觉、医学、法律、心理学等领域的新颖而困难的任务,而不需要任何特殊的提示。
“此外,在所有这些任务中,GPT-4的表现都惊人地接近人类水平,而且往往大大超过了ChatGPT等现有模型。鉴于GPT-4能力的广度和深度,我们认为可以合理地将其视为通用人工智能(AGI)系统的早期(但仍不完整)版本。”微软在研究报告中表示。
另一边,在人们都在为AI的飞速进化而欢呼雀跃时,研究机构未来生命研究所(Future Life Institute)近日却公布了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。
“我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。”该机构在信中表示,而“未经选举的技术领袖”显然是在内涵占尽风光的OpenAI。
截至目前,马斯克、苹果联合创始人Steve Wozniak和Stability AI创始人Emad Mostaque在内的诸多科技大佬和AI专家已经签署公开信,他们认为,人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。
当AI开始对齐甚至超越人类能力时,“对社会和人类构成潜在风险”就已经不再是充满科幻色彩的口号。
潘多拉魔盒
尽管GPT-3在2020年就已推出,但直到2022年,研究人员才发现预训练大模型产生了类似人类推理思维的能力。
当用户向语言大模型提问的时候,可以在提示问题(Prompt)里写几个示例,让模型照着例子做生成,像ChatGPT就可以根据用户演示的推理过程,来推导其它问题的答案,这种模仿人类思维的推理能力不需要再进行复杂的训练,只需要在提问时给出提示,模型就能自动学习,并做出相应推理得到正确结果。
但问题在于,通过“喂数据”得到的AI思维能力在原理上是如何实现的,以及继续“大力出奇迹”之后,AI又会如何进化?
日前,OpenAI CEO Sam Altman公开坦诚表示,GPT系列为何会出现推理能力,OpenAI的研究者自己也搞不明白,他们只知道,在不断测试中,人们忽然发现,从ChatGPT开始,GPT系列开始出现了推理能力。
2022年6月15日,谷歌研究院联合DeepMind和斯坦福大学发表了一篇论文:《大语言模型的突现能力》(Emergent Abilities of Large Language Models)。研究人员惊讶发现,AI的思维能力,并不是随着模型参数大小的线性变化逐渐出现的,而是当参数规模超过某一阈值后,模型的思维能力突然涌现出来,即所谓大模型的“突现能力”(Emergent Abilities)。
论文指出,大模型在参数规模达到某个临界值之前,其性能是近乎随机的,之后性能会忽然大幅增加,仿佛突然开窍一般,参数规模的量变导致了质变,而这种质变会何时发生,却充满不确定性,参数量级够大只是一个必要条件,一些大模型在大量“投喂”后却并没有表现出思维能力。
“我们一般认为这个参数规模是在千亿左右,但问题在于,随着投喂量进一步扩大,模型会再突现出什么能力是无法预测的。比如GPT-4已经能够依据命令设定自己的身份与人交流,如果再投喂下去,GPT-6或者GPT-8会不会进化到可以自行设定身份,具备自我意识甚至主动隐藏自己的某种‘价值观’?”一位NLP领域专业人士对21世纪经济报道记者表示。
谨防AI危险竞赛
技术的不确定性之外,另一个担忧在于AI浪潮裹挟下,AI又会被带向何方?
在AI所带来的生产力革命以及颠覆传统人机交互模式的巨大想象力下,微软“梭哈”OpenAI;落后一步的谷歌越挫越勇、紧追不舍;赌对了的英伟达高喊“AI的iphone时刻”;国内大小科技厂商更是直接将大模型奉为“政治正确”……
在这样新一轮疯狂的AI竞赛中,科技公司争抢新时代的船票,无疑都希望用更短的时间开发和部署更强大的AI,而这个过程中,是否会裹挟更多疯狂,加剧未来AI技术进化的不确定性。一个看上去不那么妙的信号是,大型科技公司在不断提高对AI投入的同时,却又一直在裁减致力于评估部署AI相关伦理问题的团队员工。
根据公开信息统计,微软、Meta、谷歌、亚马逊等公司都裁减了其“负责任的人工智能团队”(Responsible AI)的成员,这些团队负责为使用AI的消费产品提供安全建议。
例如,今年1月,在微软的万人级别大裁员行动中,微软解散了其所有的伦理道德与社会团队,在加速将OpenAI的技术整合到自家商业帝国每个角落的同时,却不再设立专门的团队来确保AI原则和产品设计紧密相关。
此前,谷歌内部也出现过关于AI技术的发展、影响和安全性之间的紧张关系,两位AI伦理研究负责人Timnit Gebru和Margaret Mitchell在与该公司爆发了一场激烈争吵后,分别于2020年和2021年离职。
在公认机会与风险并存的情况下,科技巨头们努力发出信号,证明自己正在认真对待AI中的潜在风险。比如在社会道德伦理团队被解散之后,微软表示仍有三个不同的团队在这个问题上开展工作。
尽管被裁减的道德团队员工也仅有几十人,只是整个科技行业低迷而被裁掉的数万名员工中的冰山一角,在AI高速发展以及大型科技公司主导权越来越重的当下,对有责任出于安全考虑给产品开发速度踩刹车的道德团队进行任何削减,似乎都值得注意。
公开信在最后提到,如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天”。