<返回更多

OpenAI高管联合撰文:超级智能不可阻挡 应谨慎对待

2023-05-24  财联社  
加入收藏

当地时间周一(5月22日),聊天机器人(15.640, 0.04, 0.26%)开发公司AI target=_blank class=infotextkey>OpenAI的三位创始人CEO山姆·奥特曼、总裁Greg Brockman和首席科学家Ilya Sutskever在公司博客联合撰文,发表了他们对治理超级智能的看法。

文章指出,在未来10年,人工智能(AI)系统将在大多数领域超越人类专家的技能水平,在开展生产活动方面能够比肩巨头公司。超级智能既有巨大的好处,也有巨大的风险,它可以创造一个更加繁荣的未来,但也存在需要加以管理的风险。

奥特曼等在文章中将超级智能比作核能和合成生物学,由于它们的潜在风险,需要特殊的处理和协调。他们提出了引导超级智能发展的三个关键要点。

首先,领先的AI开发工作需要协调,以确保安全并顺利融入社会。各国政府可以建立相关项目,或者就AI能力增长的限制达成一致。

其次,达到一定水平的AI项目应该受到国际权威的约束,类似于国际原子能机构(IAEA)对核能的监管,该机构负责检查系统,执行安全标准,并对部署和安全性进行限制。

最后,有必要进行针对超级智能的安全性进行研究,而这正是OpenAI和其他公司正在进行的研究领域。

文章强调,监管不能扼杀低于一定门槛的AI模型的发展,公司和开源项目应该有开发这种模型的自由,而不需要繁琐的监管。

三位创始人在文章最后解释了OpenAI开发超级智能的原因,他们相信它会带来一个更美好的世界,能解决问题,改善社会。另一方面,阻止超级智能的发展是危险且困难的,其潜在好处太大了,建造成本每年都在下降,参与者正在迅速增加。因此,谨慎对待超级智能的发展至关重要。

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>