中国周刊

数字法治:人工智能伦理治理亟需迈向实践阶段

2021-04-15 15:33:39 来源:中国周刊

作者:曹建峰,腾讯研究院高级研究员,华东政法大学数字法治研究院特聘研究员。本文原载《法制日报》互联网法治专栏。


当今社会,数字产业化与产业数字化持续推动数字世界与物理世界深度融合发展,人类的生活和生产方式日益被重塑。人工智能算法与数据作为这场经济与社会领域变革的核心推动力,将是未来数年的话题制造者。毫无疑问,数据与人工智能算法的结合,嵌入恰当的应用场景,将带来显著的经济与社会效益。

但也必须重视人工智能算法在公平、安全、隐私、透明、责任、就业等方面可能带来的问题。算法系统的输出结果可能对特定个体或群体造成歧视、不公平、排斥等,例如人脸识别算法被指在识别有色人种上准确性较差,广告算法、招聘算法被指排斥女性劳动者。算法分发可能助长虚假信息的传播、扩散,也能限制用户对信息的自由选择,进而造成“信息茧房”效应。同时,算法也可能被滥用或恶用,给个人权益、公共利益、国家安全等带来威胁,如过度采集与分析人脸信息、大数据杀熟、深度伪造等。

在这些背景下,人工智能的发展应用迫切需要伦理价值来提供引导与约束,这在国内外已经成为人工智能领域的一项基本共识。


三个阶段

2016年以来,伴随着人工智能技术的快速发展应用,人工智能伦理大致经历了三个发展阶段,当前迫切需要迈向“实践”阶段。

第一阶段从2016年开始,可以称之为原则大爆炸阶段。这个阶段的核心是各界纷纷提出或制定伦理原则。以人工智能需要遵循一定的伦理原则为出发点,上到国家、政府机构与国际组织,下到科技公司、行业组织与学术团体,各界纷纷提出或制定AI伦理原则。国内外的主流科技公司如微软、谷歌、IBM、腾讯等也都积极响应,陆续提出了各自的AI伦理原则。据不完全统计,相关的AI原则文件超过百份。总之,在这个阶段,各界都在积极倡导AI伦理原则,但缺乏必要的共识与具体的实践。

第二个阶段从2018年开始,可以称之为共识寻求阶段。不同的国家、不同的组织提出了众多的AI原则和伦理框架,这些原则和框架不尽相同,甚至存在一定程度的分歧与冲突。但人工智能与数字经济是全球化的,所以人们希望达成、制定全球共同认可的AI原则。OECD和G20的人工智能原则便是这一阶段的产物。

第三个阶段从2019年开始,可以称之为AI伦理实践阶段。在这个阶段,产业界开始思索如何实施、执行AI原则,探索可以把AI原则转化为实践的机制、做法、工具等。目前,谷歌、微软、IBM等科技公司已在积极推进AI伦理方面的落地工作,让AI原则操作化、落地化,真正融入、嵌入AI研发流程与业务应用。总之,AI伦理实践应成为当前以及未来AI伦理工作的核心方向,因为要真正把AI伦理落到实处,仅仅倡导AI伦理原则是不足够的,下一阶段需要着力探索把抽象的AI原则“翻译”为或“转变”为具体的实践的治理路径。

 

五个路径

从原则到实践,是AI伦理领域的发展方向。目前,我国已提出了AI伦理相关的原则、框架等,如《新一代人工智能治理原则——发展负责任的人工智能》。一些科技公司也提出了类似的倡议。在此基础上,需要进一步探索AI伦理的落地实施方案,更多依靠伦理治理的相关实践来促进负责任、安全可信AI的发展应用。结合国内外的相关探索与研究,AI伦理治理主要有以下五个实践路径。

一是伦理委员会。如果说人工智能是未来智能社会的基石,那么可以说伦理就是使这一基石稳固的必要保障。所以,考虑到不同AI系统的不同影响,以及立法滞后、法律不健全等因素,科技公司需要在法律合规这一最低要求之外,积极履行伦理责任。伦理委员会是科技公司履行AI伦理责任的最基础机制。成立伦理委员会,对AI相关业务与应用进行必要的伦理审查,已经成为了科技行业的“必选项”,例如微软的AETHER委员会、谷歌的AI原则审查小组、IBM的AI伦理委员会等。伦理委员会的主要职责是制定AI伦理相关的内部标准与流程,并基于此对AI相关业务进行伦理审查,以识别、预防、消除AI相关应用在安全、公平、隐私等方面风险。在具体运作上,伦理委员会需要多元参与,即技术、法律、伦理等不同专业领域人士的协作配合;伦理委员会负责建立案例、标准、程序、工具、资源等,成为制度知识的资料库,发挥治理主体的作用。此外,伦理委员会比政府立法反应快,能够及时跟进技术创新与应用的快速发展。

二是伦理实践框架。除了对AI业务进行伦理审查,国外科技公司也在落实AI伦理相关的实践框架,以解决人工智能带来的歧视、不透明、不可解释、隐私等问题。例如,在算法透明性方面,谷歌推出了面向人工智能的“模型卡片”机制,IBM则推出了“AI事实清单”机制,这些机制类似于产品的说明书与食品的营养成分表,对人工智能模型相关的模型细节、用途、影响因素、指标、训练数据、评估数据、伦理考虑、警告与建议等方面进行解释说明,以便人们可以更好地理解、认知AI模型。再如,在隐私保护方面,联邦学习框架(federated learning)既能促进数据利用,又能很好地保护个人隐私。简言之,联邦学习是指在进行机器学习的过程中,各参与方可借助其他方数据进行联合建模,但却无需共享其数据资源。借助联邦学习,可以解决数据不完整、数据不充分等问题,同时保护个人隐私及数据安全。联邦学习在车险定价、信贷风控、销售预测、视觉安防、辅助诊断、隐私保护广告、自动驾驶等方面具有很大应用前景。此外,AI伦理检查清单、AI公平性检查清单等机制也日益得到科技公司的重视,在确保AI符合伦理要求方面将发挥越来越重要的作用。

三是伦理工具。伦理工具侧重从技术上寻找针对透明性、可解释、公平性、安全性、隐私保护等问题的技术解决方案。此外,还包括针对人脸伪造在内的深度伪造的鉴别工具。从伦理工具的开源发展到商业化服务,大型科技公司和AI伦理创业公司正在弥补AI领域缺失的一环,为AI伦理落地提供了全新的思路。目前,谷歌、微软、IBM以及一些AI伦理创业公司等都在积极开发多元化的AI伦理工具并集成到云服务中,提供AI伦理服务(ethic as a service,简称EaaS),赋能客户与产业。EaaS将来有望成为云服务与云AI的标配。

四是标准认证。就像现在的隐私保护一样,人工智能伦理也可以采取标准认证的方式来推进,符合AI伦理标准的AI产品与服务可以申请相应的认证。目前,IEEE、ISO等国际标准化组织在积极组织制定相关的标准,并尝试推出认证项目。未来我国在这方面也需要积极投入,抢占标准高地,以标准认证的方式鼓励、促进可信的、负责任的AI的发展应用。

五是伦理培训。技术研发人员处在AI业务一线,是对技术负责的第一人,需要培养他们的伦理意识,帮助他们在AI业务实际中积极践行伦理要求,把伦理要求嵌入产品开发设计与运作的全流程。所以政府与企业也要对其技术人员加强伦理培训,高校则要加强AI伦理相关教育培训体系的搭建。


三管齐下

对于AI治理,伦理治理、法律治理及技术治理都有各自的作用空间,不可偏废。但就当前而言,人工智能治理需要更多依靠伦理治理的方式。因为考虑到AI算法的复杂性与持续迭代性,在不宜草率推出强制性立法时,伦理治理对于应对AI算法应用带来的问题无疑是最适合也是最有效的方式。

AI伦理固然重要,是确保实现负责任、安全可信AI的重要路径。但也不能片面强调伦理及立法规制,以免影响AI技术的创新应用及其经济社会效益的最大化。

例如,过度强调个人信息与隐私保护,可能导致AI应用获取不到足够的可用数据,进而阻碍AI应用及其对个人与社会的价值;过度强调算法的透明性,可能降低算法的准确性或效率,进而阻碍规模化应用;片面强调在所有场景下都要求人类最终决策与控制,可能无法充分发挥AI解决既有决策环节中人类决策者相关的偏见、歧视等问题。而且很多高风险的AI应用,往往也是高价值的AI应用,所以要在权衡不同利益追求的基础上,做到伦理与发展的平衡,实现负责任的技术创新与应用。


图片1.png

《数字法治》专题由华东政法大学数字法治研究院供稿。专题统筹:秦前松

 


编辑:海洋

已经到底部