一
加强人工智能伦理风险防范机制与进路的必要性
作为一项影响范围广、颠覆性强的科学技术,人工智能对社会结构、制度伦理、个体价值、国际关系等方面的潜在影响,使科学有效防范人工智能伦理风险成为一个无法回避的时代问题。
一是人工智能伦理风险防范已经成为国际热点话题
自2016年以来,世界各国与各类组织发布了大量与人工智能伦理风险防范相关的规划和报告。虽然有的报告并不是专门针对人工智能伦理风险防范的,但在报告中几乎都对伦理风险防范问题给予高度重视。2016年9月,英国标准协会出台《机器人和机器系统的伦理涉及和应用指南》,指明人工智能伦理的研究要在行业设定标准的指导下进行;欧盟委员会于2021年4月通过了《人工智能》立法提案,提出通过制度规范规避风险的重大安排;2017年7月—2021年1月,我国陆续出台了《新一代人工智能发展规划》《网络安全标准实践指南——人工智能伦理安全风险防范指引》等一系列文件,对人工智能伦理问题的发展旨向、讨论方式、治理原则等作出规定。从各国各组织对人工智能伦理风险防范的理论探析与实践建构不难看出,人工智能伦理风险防范问题已经成为国际普遍关注的话题。
二是人工智能伦理风险的独特性与开放性
另一方面,人工智能虽在诸多领域体现了技术更新的革命性价值,但在应用过程中逐步扩延的风险性却更加需要高度重视。例如:智能推送算法可能引发极化现象和“信息茧房”、人脸识别可能引发隐私侵害、“大数据杀熟”可能会引发价格歧视等。可以说,由人工智能快速发展和大规模应用带来的伦理问题,已经成为涉及人类社会多方面的开放性问题。
三是人工智能伦理问题的责任边界模糊化
二
当前我国在人工智能伦理风险防范机制与进路方面存在的问题
面对人工智能可能存在的伦理风险,政府管理部门、各类管理组织、大学研究机构、各类学术团体和企业等都纷纷发布相关的规划与报告予以分析和阐释。总体来看,主要存在以下几个方面的问题。
一是实践层面:人工智能伦理风险防范机制与进路更多局限于理论层面
从已有研究成果来看,既有宏观规划,也有微观分析。具言之,前者主要是对原则与思路进行探讨,尝试探索建构出有效防范人工智能伦理风险的环节链条。后者则是从微观板块入手,聚焦具体问题,分析防范人工智能伦理风险的现实途径。然而,事实上,当前对人工智能伦理风险防范的研究虽在横向上已经涵括众多方面,但总体上多以理论探讨为主,缺乏操作性,且难以落向现实实践。换言之,由于没有提出将风险防范的理论和原则落到实处的保障性措施,伦理原则也只是“冰冷的他者”般的存在,导致人工智能伦理风险防范停陷“实践性缺失”的困境。在这个意义上讲,要让伦理原则不变成一些抽象的概念,必须将其渗透并体现于人工智能技术研发到应用的各个环节与全过程之中。
二是制度层面:政策法规供给不足且不平衡
随着人工智能对人类生产生活的影响日渐深刻,一些组织和机构就相关议题展开研讨,并发布了一批人工智能伦理准则的建议。但总体而言,这些政策制定都偏重于宏观层面的产业促进,对于具体领域的指导则较为缺乏。表现为:对于已经出现的产品和领域,无论是国家还是地方层面,相关的政策法规数量都偏少。对于智能医疗、智能金融等涉及群体性利益且风险较高的领域,产业促进与风险管理的政策手段均显示出数量上的不足。在无人机、自动驾驶、智能医疗等领域,体系化、标准化政策法规供给不足,即无论是宏观层面上的人工智能产业促进政策,还是无人机、自动驾驶等具体领域内的人工智能产业指导政策,都呈现出不均衡的供给态势。
三是主体层面:责任归附失位使伦理审查难度加大
三
推进人工智能伦理风险机制与进路的对策建议
人工智能伦理风险的存在并不意味着要限制发展,而是要在宏观谋划的基础上,追溯问题出现的根源,具体分析对症下药,提出应对和防范伦理风险的有效措施。
一是积极跟进国际发展态势,争取领域发展和伦理话语权
根据德国非营利机构Algorithm Watch的统计,到目前为止,世界范围内已有160多个机构或组织提出了关乎人工智能发展的伦理准则建议。2016年美国颁布《为人工智能的未来做好准备》,对未来人工智能的发展作出前瞻性规划;同年,英国发布《人工智能:未来决策制定的机遇与影响》,提出人工智能的复杂化进阶化,既是机遇更是挑战,如此种种都对人工智能的规范性与治理问题予以高度关注。以经合组织(OECD)和七国集团(G7)为代表的组织或会议成为制定人工智能伦理原则、探讨人工智能影响的主要论坛,人工智能领域的软法性国际规范已经呼之欲出,其中日本、欧盟、美国、英国通过提出各自的伦理原则草案发挥着引领作用,这些原则将有潜力成为未来有关人工智能的国际规则。在此背景下,我们要高度重视不同社会情境之下的伦理争议,并以此作为参照,结合我国特殊的文化传统与价值追求,讨论可能适用于我国的基本规范和价值原则,对我国伦理问题做出具有本土元素的回答,为相关规范生成、治理实践提供借鉴,在参与探讨和确定前沿探索边界的同时,争取领域发展更多的伦理话语权。
二是对人工智能伦理风险防范进行操作化阐释
2022年3月,中共中央办公厅、国务院印发《关于加强科技伦理治理的意见》,在深度阐释科技伦理治理的重要性的基础上,提出要提高防范科技创新带来潜在风险的能力,促进科技发展始终向善。这一意见不仅指出对人工智能伦理风险防范的研究要由理论探讨转向与产业发展相结合,而且也对完善人工智能伦理治理体系提出了更加紧迫的要求。在此背景下,建立伦理学者与科技工作者及其他相关工作者的对话和沟通机制变得必要且紧迫。即伦理学者不再仅仅局限于撰写学术论文,而是主动到人工智能实验室与生产企业中去,深入了解人工智能产品研发现状与当前伦理风险防范举措的成效及不足,不仅要告诉科技工作者“应该做什么”,还要协助科技工作者解决“应该如何做、应该避免什么”等更加具体细致的问题,与科学家、学术团体、企业家、政府管理部门共同努力解决具体的现实问题。
三是试点先行,逐步健全政策法规体系
审慎立法。法律具有稳定性、滞后性以及奖惩分明性等特征,因此对立法规制手段的应用要更为慎重。在具体制定过程中,不仅要注意不同阶段法律所发挥的不同功能,也要及时将法学界与技术界的共识性意见吸收到相关的立法中,采取试点等方式测试法律的施行效果,进而将成功经验推广至全国。
四是明晰责任边界,健全伦理审查体系