<返回更多

直面人工智能伦理挑战

2023-12-28  新华社  
加入收藏

人工智能的伦理挑战不仅体现在“技术鸿沟”中,也体现在更为广泛的领域。这些挑战集中体现在四个维度

在人工智能技术与规则方面领先的国家,正处于技术优势快速积累周期,这种优势很可能成为诸如半导体领域存在的“卡脖子”工具,为人工智能后发国家的进步带来阻碍

2023年成为全球人工智能伦理治理开局之年。各国政府及国际组织开始密集讨论人工智能的伦理问题,发布一系列声明、愿景及政策,试图规范人工智能的发展路径

相比于治理风险,美国更不愿在确保自身技术绝对领先前就严格限制该技术的发展。因此,美国在人工智能治理上往往落后于各国进度,也滞后于技术发展

文 | 李峥 张岚舒

2023年,伴随着新一代生成式人工智能应用ChatGPT的横空出世,国际社会对于人工智能伦理挑战的讨论也日益升温。越来越多的观察人士发现,人工智能的快速发展可能超出了人类社会的准备,并认为其带来的风险不可忽视。伦理挑战已经成为人工智能带来的广泛争议中最为突出的话题,也将对未来人工智能与人类社会的互动过程带来深远影响。

直面人工智能伦理挑战

上海科技创新成果展上的机器人展品(2023 年11月29日摄) 方喆摄/本刊

四个维度看人工智能伦理挑战

与互联网的诞生类似,人工智能也将给世界带来重大变革。这种影响通常是一柄双刃剑,新技术既改造了世界,又冲击了世界,并不是每个人都能从中均等受益。人工智能的伦理挑战不仅体现在“技术鸿沟”中,也体现在更为广泛的领域。这些挑战集中体现在四个维度。

第一个维度源于人工智能的“自主性”,这意味着该技术相比其他前沿技术更容易脱离人类控制。相关伦理挑战主要体现在人工智能是否会欺骗人类和控制人类意识,是否会消减人类的发展机会。

相比互联网及社交媒体,人工智能能够更加全面地理解个体、“感知”和预测用户的所想所需。这种能力与“深度伪造”技术相结合,将进一步加剧针对不同群体的“控制”和“欺骗”。通过定向信息投喂,人工智能可能制造出更加严密的“信息茧房”、更加深度的“意识操控”。2023年,英国法院判决了一起人工智能聊天机器人怂恿一名男子刺杀女王的案件,即体现出此类风险。

以ChatGPT为代表的生成式人工智能不断迭代进步,也让商业界看到了越来越广阔的“人力替代”场景。根据麦肯锡咨询公司的预测,到2030年,随着人工智能等技术的进步,多达3.75亿名劳动者可能面临再就业问题。调研公司牛津经济也得出类似结论,到2030年,全球大约2000万个制造业工作岗位将消失,这些工作将转向自动化系统,而被迫转移的制造业劳动力即便转向服务业岗位,也同样面临被机器替代的局面。在众多的岗位中,被人工智能技术取代风险最高的工作类型包括程序员、软件工程师、数据分析师等技术类工作,广告、内容创作、技术写作、新闻等媒体类工作,以及律师、市场分析师、教师、金融分析师、财务顾问、交易员、平面设计师、会计、客服等。这些岗位普遍具有较高学历,人员失业意味着巨大的人力资本损失,将加剧一些国家的结构性失业难题。

第二个维度源于人工智能的“非透明性”,这意味着该技术隐藏的风险更难以被探知,问题无法及时披露并引起社会关注。

人工智能应用离不开算力、算法两项支撑,但这两项重要资源均不透明。对于生成式人工智能大模型来说,每次内容生成均将调用数以亿计的参数和数据,几乎很难解释其决策过程。过程及内容的不透明让人工智能更容易存在隐患。大模型的设计缺失或冒进很可能造成隐私信息泄露、数据过度收集和滥用、算法不可控等问题。生成式人工智能的输出内容有可能带有误导性,包含不真实也不准确的信息,误导人类决策过程。一些犯罪者也可能采用“数据投毒”“算法投毒”的方式误导人工智能系统,引发更大范围的系统性故障。

近年来,人工智能的军事化部署最令人担忧。人工智能系统正在被各国加速部署在带有进攻型武器的系统之中,这使得“智能作战”系统决策失误从而“擦枪走火”甚至引爆、恶化战争的风险不断上升。

第三个维度源于人工智能的“拓展性”,这意味着该技术可被各类人群和组织运用,其中可能包括一些别有用心的人群。

人工智能具有易移植、易被改造、易集成的特点,技术突破容易扩散,同样的算法可能服务于完全相悖的目的。一些犯罪分子可以绕过模型安全策略向人工智能套取“危险知识”,他们同样可将人工智能改造为犯罪工具。美国《福布斯》网站称,人工智能已经成为电信诈骗领域最强力的武器,任何一个国家都很难逃过这场波及全球的浩劫。被人工智能赋能后的电信诈骗行为有可能成为全球最具危害性的有组织犯罪。

第四个维度源于人工智能的“垄断性”,这意味着该技术高度依赖资本投入,先进算法的使用有很高门槛,包含设计者和数据形成的算法偏好,容易扩大阶层分化。

首先,人工智能可能加剧垄断行为。人工智能已经成为营销领域最具威力的“大规模杀伤性武器”,全方位改变了企业的营销策略。但是,这种更为精确的营销也可能助长“千人千价”等行为。

其次,人工智能可能加剧现实歧视。人工智能应用的算法受数据驱动,这些数据涵盖种族、性别、信仰、残障、传染病等特定标签,反映人类社会庞杂的价值观、意识形态特点。一旦偏见被引入相关应用模型训练中,算法输出的内容就可能出现对个人或群体、国家的偏见或偏爱,引发公平性问题。

最后,人工智能可能带来发展的不公平。人工智能的关键专业知识和前沿技术集中在少数企业和国家,这些企业和国家具有先发优势,这必然导致全球人工智能产业发展的参差,将更大程度加深全球“数字鸿沟”。同时,在人工智能技术与规则方面领先的国家,正处于技术优势快速积累周期,这种优势很可能成为诸如半导体领域存在的“卡脖子”工具,为人工智能后发国家的进步带来阻碍。

直面人工智能伦理挑战

在杭州亚运会田径女子铁饼决赛前,一名工作人员将铁饼放在用来搬运铁饼的机器狗上(2023年10月1日摄) 江汉摄/本刊

全球人工智能伦理治理开局之年

上述伦理挑战正在引起国际社会的广泛关注。2023年,各国政府及国际组织开始密集讨论人工智能的伦理问题,发布一系列声明、愿景及政策,试图规范人工智能的发展路径。

联合国在人工智能伦理治理上扮演了更加重要的作用。2023年,联合国在推动各国凝聚共识、探讨安全风险和治理合作方面取得一定进展。3月,联合国教科文组织号召各国立即执行该组织于2021年11月发布的《人工智能伦理问题建议书》。7月,联合国首次举行由人形机器人与人类一同参加的新闻发布会,9个人形机器人接受了参会专家和各路媒体的提问;举办“人工智能造福人类”全球峰会,讨论未来人工智能的发展和治理框架;安理会就人工智能对国际和平与安全的潜在威胁举行首场公开辩论。10月,联合国秘书长古特雷斯宣布组建人工智能高级别咨询机构,全球39名专家加入,共商人工智能技术风险与机遇,为加强国际社会治理提供支持。由此可见,联合国已经将人工智能伦理纳入全球治理议程,未来将推动形成更加正式、更有约束力的组织及治理规范。

欧盟为人工智能专门立法,对该技术实施全面监管。欧盟委员会2021年提出《人工智能法案》提案的谈判授权草案,严格禁止“对人类安全造成不可接受风险的人工智能系统”,要求人工智能公司对算法保持控制,提供技术文件,并建立风险管理系统。在历经马拉松式谈判后,欧洲议会、欧盟成员国和欧盟委员会三方2023年12月8日就《人工智能法案》达成协议,该法案成为全球首部人工智能领域的全面监管法规。

美国出台监管政策,但立法进程较为缓慢。相较于欧盟,美国监管要求少,主要强调安全原则,鼓励企业自律。2023年1月,美国国家标准与技术研究院(NIST)正式公布《人工智能风险管理框架》,旨在指导组织机构在开发和部署人工智能系统时降低安全风险,但该文件是一份非强制的指导文件。10月,拜登签署美国迄今为止最全面的人工智能监管原则,即《关于安全、可靠、可信地开发和使用人工智能的行政令》,该行政令超越了AI target=_blank class=infotextkey>OpenAI、谷歌和Meta等公司今年早些时候做出的自愿承诺,但仍缺乏强制执行效能。拜登政府在行政令发布后敦促国会尽快推出相关立法。美国国会参议院多数党领袖舒默已分别在9月和10月主持召开两次人工智能洞察论坛收集业界建议,并期望在数月内准备好人工智能立法,但未来此类法案能否顺利通过尚未可知。

英国在人工智能治理外交上投入更多资源。2023年11月,首届全球人工智能安全峰会在英国布莱奇利园召开。美国、英国、欧盟、中国、印度等多方代表参会。会议最终通过《布莱奇利宣言》,强调人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。与会者同意协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,以对尚未完全了解的人工智能风险和能力加深理解。英国为举办此次峰会开展大量前期准备和外交斡旋,意在将本国树立为全球人工智能治理的“召集人”。未来,越来越多的国家将在人工智能治理外交上投入更多资源,争夺这一新兴领域的话语权。

中国高度重视人工智能治理问题,治理理念侧重于平衡发展和安全。2023年4月,国家互联网信息办公室起草《生成式人工智能服务管理办法(征求意见稿)》。《生成式人工智能服务管理暂行办法》于7月正式公布,从技术发展与治理、服务规范、监督检查和法律责任等方面对生成式人工智能做出具体规定,并于8月15日起施行,是全球首部针对生成式人工智能的专门立法。与此同时,中国在年内也推出一系列针对深度合成、算法等专门领域的规定,例如1月生效的《互联网信息服务深度合成管理规定》、3月生效的《互联网信息服务算法推荐管理规定》。10月,中国提出《全球人工智能治理倡议》,对个人隐私与数据保护、数据获取、算法设计、技术开发以及风险等级测试评估和伦理准则等提出了具体的原则准则或建议。

美国为何行动迟缓

相比于美国在人工智能技术应用层面的发展速度,美国关于人工智能监管的政策和立法行动迟缓,这是诸多因素共同作用的结果。

首先,美国不愿放弃人工智能有利地位。

美国政府和战略界人士普遍认为,人工智能是决定美国能否在下一轮全球科技竞争中胜出的战略性技术之一。从奥巴马时期开始,美国政府即提出若干相关国家规划和愿景。特朗普政府和拜登政府的人工智能行政令均强调维护“美国人工智能的领导地位”,将这一目标作为美国治理人工智能的基础性目标。相比于治理风险,美国更不愿在确保自身技术绝对领先前就严格限制该技术的发展。ChatGPT大热后,美国相关监管政策陆续出台,其目标不仅仅是应对治理风险,更是为了防范该技术快速扩散从而削弱美国领先优势。

其次,人工智能伦理问题在美国被政治化,两党难以协调分歧达成治理共识。

近年来,美国政治极化加剧,两党在几乎所有社会问题上均意见对立,在涉及民众生活方式的人工智能伦理上更是如此。在议题上,民主党更关注个人隐私、算法歧视、算法公正等与多元化相关的议题;共和党则更关注国家安全、人工智能犯罪等安全性议题。在风险防范上,民主党认为人工智能造假、传谣领域的应用是最突出风险,要求强化社交媒体等中间传播渠道责任;共和党则认为此类治理措施存在政治动机,对共和党参选人不利。受2024年大选影响,两党的矛盾和争论更加尖锐,让立法进度明显滞后于形势发展。从拜登政府在2023年底陆续推出一系列人工智能治理政策文件可以看出,民主党有意率先打破僵局,将人工智能治理作为一个潜在的竞选议题,加速该议题的立法进程。

最后,美国管控人工智能也面临一些制度上的障碍。

美国政治传统中的所谓“自由至上”“个人至上”不利于管控去中心化、风险分散、快速扩散的技术和应用。这种传统容易在各州之间形成监管空白,也让政府难以动用行政资源铲除非法利益链条。枪支泛滥、毒品犯罪等美国社会顽疾均与此有关,危险的人工智能应用也可能成为美国下一个泛滥成灾的社会风险。

这种迟疑可能会导致全球人工智能“军备竞赛”风险上升。美国作为全球人工智能技术研发最为领先的国家,有义务成为全球推动人工智能相关监管措施的最早参与者,但美国尚未形成监管立法,在全球层面推进人工智能治理的议程也随之放缓,将使越来越多的国家忽视管控,一味追求技术领先,进而加入算法“军备竞赛”。这种竞逐色彩可能会使人工智能渐渐偏离健康有序的发展方向,无疑将为后续全球立法和治理带来更多阻碍,也使各国围绕人工智能的恶性竞争事件发生风险升高。

(李峥:中国现代国际关系研究院美国研究所所长助理;张岚舒:中国现代国际关系研究院美国研究所助理研究员)

关键词:人工智能      点击(8)
声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多人工智能相关>>>