<返回更多

AI大赛中谷歌追赶微软背后:内部员工因伦理担忧曾试图阻止

2023-04-11  华尔街见闻  
加入收藏
 有媒体分析称,这些通常在规避风险方面十分谨慎的大公司之所以在AI领域不管伦理问题而着急发布新产品,是为了在下一场可能的科技竞赛中占得先机。令人震惊的是,现在可以说是比以往任何时候都需要更多伦理团队的时候,但这些团队的成员被解雇了。

当今最热的科技话题非AI莫属。但是,并非所有人都对此满怀期待。

据媒体的最新曝光,两名前谷歌员工表达了他们对公司发布新的AI聊天机器人(12.010, -0.13, -1.07%)的担忧。

今年3月,两名负责审查AI产品的谷歌员工试图阻止该公司推出自己的AI聊天机器人,他们认为该技术会产生“不准确和危险的陈述”。

几个月前,微软的伦理学家也提出了类似的担忧。他们认为,这种AI聊天机器人将令用户批判性思维的退化,同时可能会充斥虚假信息和侵蚀“现代社会的事实基础”。

尽管如此,微软依然在2月发布了其集成在Bing搜索引擎的聊天机器人;一个月后,谷歌在3月底发布了其Bard聊天机器人。

有媒体分析称,这些通常在规避风险方面十分谨慎的大公司之所以在AI领域不管不顾地采取激进的举措,是为了在下一场可能的科技竞赛中占得先机。

根据多名员工及内部文件的阐述,ChatGPT的惊人成功导致微软和谷歌愿意承担更大的风险。微软技术主管Sam Schillace上个月发送的一封内部电子邮件称,第一个推出相关产品的公司将是长期赢家,有时候两家公司的差距仅仅以周为单位。

自发布以来,围绕这些AI机器人的伦理争议就持续不断。包括马斯克在内的1000多名技术领域的研究人员和意见领袖不久前发布一封公开信表达了对AI带给社会影响的担忧,他们呼吁放慢相关技术的发展步伐。

监管机构已经准备对AI技术进行干预。欧盟提议立法监管人工智能,意大利上周暂时禁止ChatGPT。在美国,白宫和国会也在寻求对AI更强有力的监管。

更令外界担忧的是,上个月底,微软、Meta、谷歌、亚马逊和推特等公司都裁减了“负责任的人工智能团队”成员,这些团队主要为使用人工智能的消费产品的安全性提供建议。

业内专家对此表示,各大科技公司裁减相关人员的决定令人担忧,因为随着越来越多的人开始试用新的人工智能工具,人们发现了这项技术可能被滥用。在OpenAI推出ChatGPT并取得成功后,人们的这种担忧进一步加剧。

谷歌旗下人工智能研究公司DeepMind的前伦理和政策研究员、研究机构Ada Lovelace Institute副主任Andrew Strait称:

令人震惊的是,现在可以说是比以往任何时候都需要更多这类团队的时候,但这些团队的成员被解雇了。

今年1月,微软解散了其“道德和社会”团队,该团队领导了微软在相关领域的早期工作。微软表示,裁员人数不到10人,公司负责人工智能的办公室仍有数百人在工作。

微软人工智能业务主管Natasha Crampton称:

我们已经显著增加了‘负责任的人工智能’努力,并努力在整个公司范围内将其制度化。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>