当前位置:首页 > 我爱科技 > 正文

关于我国人工智能伦理风险防范机制与进路的建议

发布日期:2023-04-24 15:06 来源:中国科协创新战略研究院科研项目“前沿重大科技创新的责任伦理研究”
【按】在高新技术迅猛发展的今天,人工智能作为一项颠覆性的技术,对人们生产生活也产生了深刻的影响。与技术进步相伴生,人工智能所带来的不确定性及负效应也逐渐外溢,日益成为国际社会高度关注的热点问题。当前我国伦理风险防范进路的实践性“悬置”、政策供给不平衡以及责任边界不明等问题,对加强人工智能伦理风险防范机制与进路的研究提出了更加深刻的要求。为此,中国科协创新战略研究院课题组提出积极跟进国际发展态势,争取领域发展和伦理话语权;对人工智能伦理风险防范进行澄清与操作化阐释;试点先行,逐步健全政策法规体系;强化责任边界,健全伦理审查体系等对策建议。


随着人工智能的快速发展和广泛应用,如何使人工智能最大限度地为人类造福而不是带来伤害,已经成为国际组织、各国政府、学术界及社会公众普遍关注的热点话题。在这其中,不论是对人工智能伦理风险的澄清,还是对防范人工智能伦理风险的关注,抑或是对参与人工智能国际治理的重视,都要求对人工智能伦理风险防范机制与进路的探讨由理论转向实践,即把理论研究操作化到更加现实和具体的层面。

加强人工智能伦理风险防范机制与进路的必要性


作为一项影响范围广、颠覆性强的科学技术,人工智能对社会结构、制度伦理、个体价值、国际关系等方面的潜在影响,使科学有效防范人工智能伦理风险成为一个无法回避的时代问题。


一是人工智能伦理风险防范已经成为国际热点话题

图片

自2016年以来,世界各国与各类组织发布了大量与人工智能伦理风险防范相关的规划和报告。虽然有的报告并不是专门针对人工智能伦理风险防范的,但在报告中几乎都对伦理风险防范问题给予高度重视。2016年9月,英国标准协会出台《机器人和机器系统的伦理涉及和应用指南》,指明人工智能伦理的研究要在行业设定标准的指导下进行;欧盟委员会于2021年4月通过了《人工智能》立法提案,提出通过制度规范规避风险的重大安排;2017年7月—2021年1月,我国陆续出台了《新一代人工智能发展规划》《网络安全标准实践指南——人工智能伦理安全风险防范指引》等一系列文件,对人工智能伦理问题的发展旨向、讨论方式、治理原则等作出规定。从各国各组织对人工智能伦理风险防范的理论探析与实践建构不难看出,人工智能伦理风险防范问题已经成为国际普遍关注的话题。


二是人工智能伦理风险的独特性与开放性

图片

一方面,信息科技的飞速发展,带来了“4A”革命(工厂自动化FA、办公室自动化OA、实验室自动化LA和家庭自动化HA)。革命成果在提高人们参与各类活动质量和带来社会巨大收益的同时,也蕴藏着巨大的伦理风险,且极有可能威胁到整个人类社会的健康与生存,表现为人工智能介入社会信息领域后,与众多因素之间交叉与密合的强弱之别与不稳定性,使得其带来的风险往往难以预测,在确定性缺失的情况下,事后干预措施的可控性往往会被直接弱化。因此,必须前瞻性关注和研究信息领域相关伦理问题。

另一方面,人工智能虽在诸多领域体现了技术更新的革命性价值,但在应用过程中逐步扩延的风险性却更加需要高度重视。例如:智能推送算法可能引发极化现象和“信息茧房”、人脸识别可能引发隐私侵害、“大数据杀熟”可能会引发价格歧视等。可以说,由人工智能快速发展和大规模应用带来的伦理问题,已经成为涉及人类社会多方面的开放性问题。


三是人工智能伦理问题的责任边界模糊化

图片

人工智能伦理作为一项相对复杂的人工实践,内含人类行动者、非人类行动者以及特殊行动参与者的多元利益诉求和多种利益冲突。人类行动者主要有规则制定者、智能机器的设计者、智能技术的使用者、智能技术监管者等。不同的利益诉求方和价值主体的多元代表,使人工智能在人类行动者中以一个复杂社会网络的形式存在。而人工智能应用结果可能造成个体权利侵害或社会权利结构转移的风险,主体构成的多元性在要求伦理原则在作用范围上完成个体到群体转变的同时,也使伦理责任在主体归属上趋于模糊。

当前我国在人工智能伦理风险防范机制与进路方面存在的问题


面对人工智能可能存在的伦理风险,政府管理部门、各类管理组织、大学研究机构、各类学术团体和企业等都纷纷发布相关的规划与报告予以分析和阐释。总体来看,主要存在以下几个方面的问题。


一是实践层面:人工智能伦理风险防范机制与进路更多局限于理论层面


从已有研究成果来看,既有宏观规划,也有微观分析。具言之,前者主要是对原则与思路进行探讨,尝试探索建构出有效防范人工智能伦理风险的环节链条。后者则是从微观板块入手,聚焦具体问题,分析防范人工智能伦理风险的现实途径。然而,事实上,当前对人工智能伦理风险防范的研究虽在横向上已经涵括众多方面,但总体上多以理论探讨为主,缺乏操作性,且难以落向现实实践。换言之,由于没有提出将风险防范的理论和原则落到实处的保障性措施,伦理原则也只是“冰冷的他者”般的存在,导致人工智能伦理风险防范停陷“实践性缺失”的困境。在这个意义上讲,要让伦理原则不变成一些抽象的概念,必须将其渗透并体现于人工智能技术研发到应用的各个环节与全过程之中。


二是制度层面:政策法规供给不足且不平衡


随着人工智能对人类生产生活的影响日渐深刻,一些组织和机构就相关议题展开研讨,并发布了一批人工智能伦理准则的建议。但总体而言,这些政策制定都偏重于宏观层面的产业促进,对于具体领域的指导则较为缺乏。表现为:对于已经出现的产品和领域,无论是国家还是地方层面,相关的政策法规数量都偏少。对于智能医疗、智能金融等涉及群体性利益且风险较高的领域,产业促进与风险管理的政策手段均显示出数量上的不足。在无人机、自动驾驶、智能医疗等领域,体系化、标准化政策法规供给不足,即无论是宏观层面上的人工智能产业促进政策,还是无人机、自动驾驶等具体领域内的人工智能产业指导政策,都呈现出不均衡的供给态势。


三是主体层面:责任归附失位使伦理审查难度加大


健全伦理审查首先要解决有法可依的问题。建章立制是必须优先解决的问题,不应当越过这个环节来谈伦理审查。人工智能算法生产和运作过程的“黑箱化”,不仅使有效监管难以推进,而且因为其运行过程的不透明性和治理规则的复杂性,使得责任追究陷入困境。换言之,进入人工智能时代,人工智能复杂性背后的技术交叉与重组在分化“技术风险第一责任人”的同时,在其发展过程中融入了更多专业多样化的技术工作者。多元主体带来的责任“共有”或“分赋”,使传统的技术责任伦理已经无法再适应伦理发展的需要。虽然当前各专业都在分头尝试探讨自身的伦理审查,但是绝大部分是在通用规则的基础上重复工作,还未能真正解决基于多元主体不同特点进行伦理审查的特殊要求。

推进人工智能伦理风险机制与进路的对策建议


人工智能伦理风险的存在并不意味着要限制发展,而是要在宏观谋划的基础上,追溯问题出现的根源,具体分析对症下药,提出应对和防范伦理风险的有效措施。


一是积极跟进国际发展态势,争取领域发展和伦理话语权

图片

根据德国非营利机构Algorithm Watch的统计,到目前为止,世界范围内已有160多个机构或组织提出了关乎人工智能发展的伦理准则建议。2016年美国颁布《为人工智能的未来做好准备》,对未来人工智能的发展作出前瞻性规划;同年,英国发布《人工智能:未来决策制定的机遇与影响》,提出人工智能的复杂化进阶化,既是机遇更是挑战,如此种种都对人工智能的规范性与治理问题予以高度关注。以经合组织(OECD)和七国集团(G7)为代表的组织或会议成为制定人工智能伦理原则、探讨人工智能影响的主要论坛,人工智能领域的软法性国际规范已经呼之欲出,其中日本、欧盟、美国、英国通过提出各自的伦理原则草案发挥着引领作用,这些原则将有潜力成为未来有关人工智能的国际规则。在此背景下,我们要高度重视不同社会情境之下的伦理争议,并以此作为参照,结合我国特殊的文化传统与价值追求,讨论可能适用于我国的基本规范和价值原则,对我国伦理问题做出具有本土元素的回答,为相关规范生成、治理实践提供借鉴,在参与探讨和确定前沿探索边界的同时,争取领域发展更多的伦理话语权。


二是对人工智能伦理风险防范进行操作化阐释

图片

2022年3月,中共中央办公厅、国务院印发《关于加强科技伦理治理的意见》,在深度阐释科技伦理治理的重要性的基础上,提出要提高防范科技创新带来潜在风险的能力,促进科技发展始终向善。这一意见不仅指出对人工智能伦理风险防范的研究要由理论探讨转向与产业发展相结合,而且也对完善人工智能伦理治理体系提出了更加紧迫的要求。在此背景下,建立伦理学者与科技工作者及其他相关工作者的对话和沟通机制变得必要且紧迫。即伦理学者不再仅仅局限于撰写学术论文,而是主动到人工智能实验室与生产企业中去,深入了解人工智能产品研发现状与当前伦理风险防范举措的成效及不足,不仅要告诉科技工作者“应该做什么”,还要协助科技工作者解决“应该如何做、应该避免什么”等更加具体细致的问题,与科学家、学术团体、企业家、政府管理部门共同努力解决具体的现实问题。


三是试点先行,逐步健全政策法规体系

图片

人工智能的发展,不仅在社会生活多方面提出了需要法律回应的新问题,而且也形成了法律本身变革的推动力。当前人工智能法规制度供给不足和失衡等问题严重制约着人工智能的科学化与规范化发展,如何在确保风险可控的前提下,及时预估人工智能技术带来的影响,并制定相应的应对计划。

加强科学评估,调动和发挥现有的优势,动态评估和应对技术发展形势,准确把握当前政策法规的全貌,在补齐不足的基础上,加强前瞻性预判,增长优势。


审慎立法。法律具有稳定性、滞后性以及奖惩分明性等特征,因此对立法规制手段的应用要更为慎重。在具体制定过程中,不仅要注意不同阶段法律所发挥的不同功能,也要及时将法学界与技术界的共识性意见吸收到相关的立法中,采取试点等方式测试法律的施行效果,进而将成功经验推广至全国。



四是明晰责任边界,健全伦理审查体系


人工智能独特性与开放性的特点,不仅使人工智能伦理本身牵涉更多的主体,责任归赋陷入模糊困境,而且也使对人工智能技术开发前、中、后的伦理审查的难度加大。

一方面,搭建起能够及时沟通的网状渠道,在强化政府与研究机构、技术专家、社会组织和公众协商交流的基础上,讨论相关责任方在人工智能风险防范与风险治理中的权责所属关系,打造责任意识和责任行为,形成能够有效应对不确定性的治理体系和机制。

另一方面,加强对人工智能技术开发的前瞻性和预防性评估,镜像化人工智能技术的生成与实践逻辑,在此基础上“窥探”人工智能可能存在的伦理问题并加以有效防范,推动人工智能朝着更加规范、安全的方向发展。