教育频道,考生的精神家园。祝大家考试成功 梦想成真!
会员登录 会员注册 网站通告:

经济学

搜索: 您现在的位置: 经济管理网-新都网 >> 经济学 >> 工业经济学 >> 正文

数字科技伦理监管的政策布局与实践模式:来自英国的考察

http://www.newdu.com 2023/11/6 《经济体制改革》2023年05期 肖红军 李… 参加讨论

    

    摘要随着数字经济的迅速发展,各国政府逐渐意识到有必要将数字科技伦理纳入监管范畴。系统分析英国数字科技伦理监管的制度建设和实践做法,发现英国数字科技伦理的监管主体涵盖政府部门和公共机构、咨询小组和委员会及网络和社区等跨政府组织、分权行政机构等;数字科技伦理监管主要面向人工智能伦理和大数据伦理,并在算法、人脸识别和数据公平等重点领域进行了政策布局;监管模式为政府部门主导、政府部门与跨政府组织上下联动以及多中心、分散式的模式。英国政府将部分监管权力下放,与跨部门数字科技伦理治理标准相结合,对数字科技伦理进行监管。英国数字科技伦理监管实践对我国的启示在于:在制度设计上,确立跨部门协作、以人为本、制定清晰的伦理治理原则和全国性标准;在监管模式上,构建分类监管体系,建立多部门合作机制,避免“一刀切”式监管;在多利益主体参与上,赋予地方政府和企业更多的自主权和责任,全面考虑多方利益主体的需求和利益,建立包容性和多元化的伦理监管框架。
    关键词:数字科技;伦理监管;监管模式;英国
    基金:国家社会科学基金重大项目“国企混合所有制改革的实现路径选择研究”(20&ZD073);中国社会科学院国情调研重大项目“数字科技伦理监管制度调查研究”(GQZD2023009);中国社会科学院登峰战略企业管理优势学科建设项目。
    

    随着数字技术在经济和社会中的广泛应用,人们开始意识到数字科技可能对社会带来的潜在负面影响,数字科技伦理监管成为当前数字化转型进程中的重要议题。在英国,政府已经认识到保障公民隐私和安全的必要性,因此积极采取措施将数字科技伦理纳入监管范畴。一系列监管政策和报告如《理解人工智能伦理和安全》《对算法决策中的偏见的审查》等相继发布,旨在规范数字科技的发展和应用。本文将系统分析英国数字科技伦理监管的演化阶段与基本发展历程、监管主体与政策布局、监管的主要模式与机制等,在此基础上提出英国数字科技伦理监管对我国的启示和经验借鉴。
    一、英国数字科技伦理监管的演化阶段与发展历程
    1.伦理监管研究与讨论阶段(2012~2017年)
    这一阶段,英国数字科技快速发展,数字科技伦理并不是英国政府监管的重点。然而,随着数字科技应用范围扩大,人们逐渐认识到其潜在负面影响,如偏见、歧视、结果不透明、社会关系孤立和分裂等。这些问题引起社会媒体、专家学者和公众广泛讨论。英国政府、学术界和产业界开始重视数字科技伦理问题,探讨其内涵和应对方式,为下一阶段的制度建立奠定理论和社会基础。
    2012年,英国政府确定了推动未来发展的“八大技术”,其中大数据被认为是英国八项重要前沿技术之首。[1]2013年1月,英国宣布对“八大技术”进行总额超过4.6亿英镑的新投资,其中1.89亿英镑用于大数据,投资总额远超其他七大技术。随后,英国将全方位构建数据能力上升为国家战略,同年10月发布《英国数据能力战略——抓住数据机会》,提出了11项具体战略,把大数据人力资源、大数据基础设施建设和数据资产作为发展大数据的核心。[2]同年,政府的信息经济战略强调了大数据带来的机遇及面临的挑战。同时,英国政府和专家学者关注到了大数据发展中的风险,特别是在个人数据的存储和处理方面。2014年,下议院科学技术委员会在第15届会议报告《负责任地使用数据》中审查了社交媒体背景下大数据产生的隐私问题。报告强调:英国在使用社交媒体数据方面已是全球领先者,我们渴望保持这一地位,但前提是在确保英国公民个人隐私的同时实现这一目标。[3]之后,下议院科学技术委员会对大数据和人工智能发展中对经济和社会的影响以及随之带来的伦理道德问题进行了一系列讨论。2015年,该委员会就大数据的机遇和风险向健康、营销、金融技术部门、信息专员和其他与数据伦理相关的组织进行了调研。随后,发布的《大数据困境》报告指出,随着大数据日益成为我们生活的一部分,数据的匿名化和重复使用正在成为一个迫切需要解决的问题。平衡数据和隐私变得尤为重要。报告还建议成立一个“数据伦理委员会”,以平衡隐私、匿名安全和公共利益。[4]
    机器人和人工智能(AI)领域取得的一系列进展对日常生活产生了变革性的影响:从无人驾驶汽车和医疗诊断计算机,到可以定制课程满足学生个人认知需求的智能辅导系统。这些人工智能领域的技术突破引发了一系列社会、伦理和法律问题。2016年3月,下议院科学技术委员会向在机器人和人工智能领域工作的学者、行业代表、关注致命自主武器发展的非政府组织、英国研究理事会和英国创新委员会的代表进行调研。调研主要围绕机器人和人工智能技术的发展所引发的社会、法律和伦理问题,以及如何解决这些问题展开讨论,形成报告《机器人与人工智能》。报告重点阐述了人工智能创新发展过程中的伦理道德困境并探讨了可能的解决途径。报告关于数字科技伦理的探讨主要集中于人工智能的安全与控制方面,还涉及算法偏见问题,即所有数据驱动的系统都容易受训练数据集选择等因素的影响,这些因素可能反映潜意识的文化偏见。此外,报告还提及了在《大数据困境》报告中提到的数据隐私和知情权、问责和赔偿责任等。同时,调研对象TechUK、InnovateUK等研究机构和一些科技公司等均强调,面对数字科技带来的伦理道德问题,围绕数字科技的监管标准和法律框架没有跟上技术的发展,需要加强公众对话,建立伦理治理框架。由此,报告建议建立一个常设的人工智能委员会,成员应涵盖法律、社会科学、计算机、数学和哲学等专业人士,以研究人工智能对社会、伦理和法律的潜在影响。[5]在报告的建议下,2017年6月,英国政府成立了人工智能特别委员会,开始了下一阶段的制度设计。
    2.监管架构设计与形成阶段(2018~2020年)
    这一阶段,英国加快成立数字科技伦理监管机构,由政府部门主导,各部门通过分散式成立相关公共机构、委员会、论坛和小组等,对其管辖内的数字科技伦理进行理解、分析和初步治理。
    2018年4月,英国政府发布了一份受上议院人工智能特别委员会委托的报告《英国的人工智能:准备好、意愿和有能力?》,明确概述了其关于人工智能伦理治理的首个国家级立场:在当前阶段,一刀切地针对人工智能的监管是不合适的。最有能力考量人工智能对特定行业影响并开展后续监管的,是已经存在的针对特定行业的监管机构。[6]这一官方立场向不同的政府部门和公共机构发出信号,表明他们有责任管理其管辖范围内相关的人工智能、大数据等数字科技。自2018年起,几个政府部门和公共机构开始制定涵盖其特定管辖区的伦理治理措施。
    信息专员办公室(ICO)是这一领域最活跃的机构之一,在2018年5月欧盟出台《通用数据保护条例GDPR》后,信息专员办公室(ICO)负责执行《通用数据保护条例GDPR》。信息专员办公室(ICO)的法律框架涵盖了数据伦理,有权处以罚款、停止处理个人数据并对数据泄露进行调查。同年8月,英国数字、文化、媒体和体育部(DCMS)和政府数字服务局(GDS)就公共部门的数据使用推出《数据伦理框架》并于2020年《国家数据战略》发布后进行了进一步更新。同年,英国数字科技伦理最重要的咨询机构——数据伦理与创新中心(CDEI)成立,旨在探讨如何以符合伦理道德的方式最大限度地发挥新技术的优势,并向政府提供建议。2019年,人工智能办公室和政府数字服务局(GDS)与艾伦—图灵研究所合作,编制了《理解人工智能伦理和安全》。同年,英国金融市场行为监管局(FCA)就其管辖的加密货币发布了《加密货币资产指南》。2020年,英国持续推进数字科技伦理治理,相继成立多个数字科技伦理监管机构、论坛和小组。同年4月,内阁办公室创建数据标准管理局,专注于制定和执行政府的关键数据标准,并围绕数据伦理原则建立相关社区。同年7月,英国竞争和市场管理局(CMA)、信息专员办公室(ICO)以及通信办公室共同成立了数字监管机构合作论坛(DRCF),旨在促进数字监管机构的协作和合作。同年10月,英国统计局启动了一个包容性数据工作组,旨在改进英国的数据资料,涵盖《平等法》中九个受保护的特征,如年龄、残障、性别重新确认、婚姻和民事伴侣关系、怀孕和产假、种族、宗教或信仰、性别和性取向。此外,在鼓励公众对话方面,人工智能公私论坛(AIPPF)和人工智能态度网络(PADAI)相继成立,致力于促进公共部门、私营部门、学术界和公众之间就人工智能展开对话,并探索以最适合的方式与公众接触。
    3.监管制度建设与完善阶段(2021年至今)
    在这一阶段,监管机构密集发布了伦理监管指导意见。英国政府2021年发布的《国家人工智能战略》特别强调“现在是决定我们现有的政府部门主导的去中心化的监管方法是否仍然正确的时候了”,并讨论了监管法规的一致性问题。在随后的《人工智能监管政策文件》中得出结论,英国应该继续2018年的轨迹,专注于具体情境和非法定治理,建立一套跨部门治理原则。
    2021年1月,英国卫生和社会保健部发布了《数据驱动的健康和护理技术行为准则》,探讨了国家医疗服务系统和健康和护理系统中使用数据驱动技术出现的伦理挑战。同年2月,英国安全行业协会(BSIA)发布了《自动面部识别:道德和法律使用指南》,为安全提供商和终端用户使用自动面部识别(AFR)技术提供一个道德和法律的框架。政府通信总部(GCHQ)发布《开创新的国家安全—人工智能伦理》报告,描述了GCHQ在其运营中使用AI的方法以及他们对合乎道德和负责任地使用AI的承诺。同时,英国数字科技伦理监管又一重要机构中央数字和数据办公室(CDDO)由内阁办公室成立,并将数据标准管理局交由CDDO管理,CDDO负责协调整个政府的数字、数据和技术专业。此外,政府在《政府对上议院人工智能委员会的回应》中进一步讨论了数据伦理与创新中心(CDEI)在促进人工智能伦理发展和部署中应该扮演的角色,强调了人工智能伦理的重要性以及政府在人工智能伦理监管中的主导作用,认为CDEI除了在国内,在国际上也应扮演重要角色,建立国家标准。同年3月,英国统计局(ONS)成立应用数据伦理中心并发布《统计数据伦理政策》,为统计数据在数据伦理应用方面提供实际支持和思想领导,并于2022年4月进一步更新。苏格兰政府也在3月发布了《苏格兰人工智能战略》,比英国政府早了6个月。这份文件概述了苏格兰将“成为值得信赖的人工智能的领导者”。同年4月,英国金融行为监管局(FCA)成为数字化监管合作论坛DRCF的正式成员。同年9月,英国政府启动了对《通用数据保护条例》(GDPR)、《2018年数据保护法》和《隐私和电子通信条例》(PECR)等英国现行主要数据法规修正的咨询。英国政府还发布了《国家人工智能战略》,提出通过数据伦理与创新中心(CDEI)工作的开展来解决算法决策中的偏见问题。
    ①此前是观察员成员。
    2022年2月,人工智能公私论坛(AIPPF)发布了最终报告《人工智能公私论坛最终报告》,对金融服务人工智能模型的偏见、公平和伦理进行了专题讨论。同年6月,英国政府公布了《数据:新的方向—政府对咨询的回应》,提出了广泛的改革建议,囊括了对《通用数据保护条例》(GDPR)、《2018年数据保护法》和《隐私和电子通信条例》(PECR)等英国现行主要数据法规的修正。这些改革建议包括数据保护管理与问责、数据泄露报告、人工智能规制、信息专员办公室(ICO)机构调整等重要领域。同年7月,英国政府发布了《人工智能监管政策文件》,提出英国政府对未来“支持创新”和“具体情境”下的人工智能监管制度愿景。文件建议延续之前的监管模式,构建一个“有利于创新的人工智能治理框架”。2023年3月,英国发布《促进创新的人工智能监管方法》白皮书,提出人工智能在各部门的开发和使用中都应遵守的五项跨部门伦理原则,各监管部门将在这五项原则的基础上,根据具体情况发布指南,形成跨部门人工智能伦理初步框架。
    二、英国数字科技伦理监管的监管主体与政策布局
    1.英国数字科技伦理监管的核心主体及其监管职能
    经过对英国数字科技伦理主要监管主体的梳理发现,英国已形成政府部门主导、政府部门与跨政府组织上下联动、去中心化的数字科技伦理监管体系(如图1所示)。
    
    图1 英国数字科技伦理监管机构图
    (1)政府部门和公共机构
    政府部门和公共机构是英国数字科技伦理监管的主要主体,主要通过发布伦理监管指导意见对其管辖区内的数字科技伦理进行规范和引导。
    目前,英国人工智能伦理监管的主要主体为数字、文化、媒体和体育部(DCMS)、商业、能源和工业战略部(BEIS)、内政部和外交、联邦和发展办公室(FCDO)及其下属的六个公共机构。第一,数据伦理与创新中心(CDEI)成立于2018年,致力于开展研究,探讨如何以符合道德伦理的方式最大限度地发挥新技术的优势,并向政府提供建议。CDEI的工作主题包括在线定位、人工智能晴雨表、算法决策中的偏见等。最近发布了《数据中介、隐私增强技术》《公众对算法透明度的态度》等研究报告。第二,人工智能办公室负责监督政府在产业战略中面对的关于人工智能的重大挑战,并致力于推动人工智能技术的负责任和创新应用,以造福英国每个人。该办公室于2021年9月发布了《国家人工智能战略》。第三,信息专员办公室(ICO)致力于维护公共利益下的信息权利,促进公共机构的公开透明和保护个人数据隐私。除了监管与数据保护和信息自由相关的问题外,ICO还与其他监管机构合作,并通过各种“沙盒”计划来了解未来的发展趋势。第四,艾伦—图灵研究所的数据科学和人工智能公共政策项目与超过85个公共组织合作,开发使用数据、数据科学和人工智能的方法,以改善政策制定、服务设计和监管,并促进政府创新。艾伦—图灵研究所已经开展了广泛的研究,与人工智能办公室和政府数字服务局(GDS)合作制定了英国公共部门人工智能伦理使用的官方指南《理解人工智能伦理和安全》。第五,生物识别和监控摄像机专员办公室成立于2012年,发布了《监控摄像头实践守则》《警察使用人脸识别伦理指南》等警察使用人工智能技术相关的指导规范。第六,政府通信总部(GCHQ)在2021年2月发布了《人工智能的伦理:开拓新的国家安全》,在严格的立法管辖下使用一系列方法来收集被认为具有情报价值的通信和数据,并对其是否威胁国家安全进行判断。
    大数据伦理监管的主要主体为内阁办公室、英国统计局和卫生和社会保健部及其下属的六个公共机构。第一,中央数字和数据办公室(CDDO)是一个2021年初成立的单位,负责协调整个政府的数字、数据和技术专业,提出了公共部门的《数据伦理框架》。第二,数据标准管理局(DSA)专注于开发和执行政府的关键数据标准,并围绕政府的数据建立社区和数据伦理原则。第三,政府数字服务局(GDS)是英国政府数字化转型的先锋,负责协调政府部门及民间组织、私营部门、工作小组、多边机构,并作为执行机构推进政府数据开放和伦理监管。第四,平等中心下设残障人士部门、政府平等机会办公室、种族不平等部门,并提出相关人士的数据平等计划。第五,应用数据伦理中心是英国统计局于2021年成立的机构,旨在为统计数据在数据伦理应用方面提供实际支持和思想领导。该中心还与联合国经济委员会(UNECE)合作,致力于推动机器学习在统计应用方面的伦理监管。第六,英国国家医疗服务体系数字化发展部NHSX是一个推动医疗服务数字化转型的部门,发布了《健康和社会保健数据战略》对医疗数据进行伦理监管。
    区块链伦理监管的主要主体为财政部及其下属的英国金融市场行为监管局(FCA)。2019年,英国金融市场行为监管局(FCA)就其管辖的加密货币发布了首个指南性文件《加密货币资产指南》,并计划推出一个监管加密货币的方案。
    (2)跨政府组织
    跨政府组织在英国数字科技伦理监管中主要是协同者的角色,由咨询小组和委员会及网络和社区通过论坛和咨询小组等形式与政府部门上下联动,协同监管,主要包括七个组织。第一,人工智能委员会是一个由独立成员组成的非法定专家委员会,旨在向政府和人工智能生态系统的高层领导提供建议。该委员会于2021年1月发布了人工智能路线图,建议政府制定国家人工智能战略,这一关键建议得到推进。第二,人工智能公私论坛(AIPPF)由英格兰银行(Bank)和金融行为监管局(FCA)于2020年10月成立,以促进公共部门、私营部门和学术界之间关于人工智能的对话。AIPPF的目的是分享信息,深化对人工智能伦理的集体理解,并探索如何支持在金融领域中安全运用人工智能。第三,公众对数据和人工智能态度网络(PADAI)是由数据伦理与创新中心(CDEI)为了增加公众参与度于2020年建立的,PADAI使公众能够通过该网络参与调查研究、协商对话和焦点小组,进行社交媒体分析和行为洞察小组等活动。第四,公共数据咨询小组为内阁办公室提供专家建议,重点关注公众对数据伦理的理解方面。第五,隐私和消费者咨询小组主要讨论如何为消费者访问公共服务提供简单、可信赖、保护隐私和数据安全的访问方式,并向政府提供建议。第六,开放标准委员会是与内阁办公室合作的机构,负责实施透明数据开放标准。内阁办公室在开放数据标准流程中接受开放标准委员会的建议。第七,数字监管合作论坛(DRCF)旨在加强在线监管的合作。DRCF的成员包括英国竞争与市场管理局(CMA)、信息专员办公室(ICO)、通信办公室和英国金融行为监管局(FCA)。DRCF基于这些机构之间的紧密工作关系,旨在确保更高水平的合作,应对在线平台监管所面临的独特挑战。
    (3)分权行政机构
    英国对数字科技伦理监管的主体还包括分权行政机构,如苏格兰政府和威尔士政府等。这些分权行政机构及其下属的公共机构在数字科技伦理监管方面拥有较大程度的自主权,有时政策制定比中央政府更加迅速和及时。如,苏格兰政府2017年就出台了数字战略《在数字世界中实现苏格兰的潜力》,并于2021年3月发布了《苏格兰人工智能战略》;威尔士政府也发布了《威尔士数字战略》。
    2.英国数字科技伦理监管的政策布局
    (1)面向人工智能伦理的监管政策布局
    英国政府对人工智能伦理监管非常重视,提出了英国人工智能伦理监管的核心原则。2018年4月,英国政府发布了受上议院人工智能特别委员会委托的报告《英国的人工智能:准备好、意愿和有能力?》,提出五项核心原则,旨在指导和告知人工智能伦理。第一项原则认为,人工智能的开发应该是为了人类的共同利益,呼吁建立共享的人工智能伦理框架,最大限度地造福个人和社会。第二项原则要求提高人工智能的透明度和公平性,呼吁公司和组织提高其人工智能系统的决策透明度。第三项原则认为,人工智能不能削弱个人、家庭或社区的数据权利或隐私。呼吁政府积极审查在英国运营的大型科技公司对数据的使用和潜在垄断。第四项原则规定,所有人都有权接受AI教育,在AI辅助下得到全面发展,儿童应学习使用AI,成年人需投资于培训以解决AI对就业市场的影响。第五项原则认为,人工智能不能赋予伤害、毁灭或欺骗人类的能力。[6]
    在这一核心原则的指导下,2021年2月《政府对上议院人工智能特别委员会的回应》指出,应该将讨论从“什么是人工智能伦理”转向如何在AI系统的开发和部署中注入伦理。文件建议英国数据伦理与创新中心(CDEI)建立和公布人工智能伦理的国家标准,包括开发过程和政策制定者及企业符合伦理的使用AI的两个框架。这两个框架应该反映出不同AI使用阶段的不同风险。[7]目前,虽然尚未建立国家标准,但已制定多项政策和举措来规范人工智能伦理,如公共部门人工智能伦理框架和跨部门人工智能伦理治理原则等。其中,英国艾伦—图灵研究所发布《理解人工智能伦理和安全》指南,为英国公共部门关于人工智能伦理和安全的最全面的指南。该指南提供了一个实用的人工智能伦理框架和一套可操作的原则,衡量公共部门人工智能项目的公平性(数据公平、设计公平性、结果公平、实施公平)、问责制、可持续性和透明度。防止偏见和歧视,维护公众对项目的信任,帮助公共部门设计、实施和监督符合伦理和安全标准的人工智能系统。[8]2022年7月,英国政府发布《人工智能监管政策文件》,提出了政府对未来“支持创新”和“具体情境”的人工智能监管制度的愿景,建议构建一个“有利于创新的人工智能治理框架”。该文件概述了六项跨部门的人工智能治理原则,并确认英国政府目前没有计划在英国引入新的立法来监管人工智能。[9]2023年3月,英国发布《促进创新的人工智能监管方法》白皮书,进一步提出了安全、安保和稳健性、适当的透明度和可解释性、公平、问责制和治理、竞争和补救五项跨部门伦理原则。
    ①这些原则建立在OECD人工智能五项原则的基础上,突出了英国政府认为使用人工智能最有风险的领域。
    英国针对算法伦理和人脸识别等重点领域进行了政策布局。2020年11月,英国数据伦理与创新中心(CDEI)发布《对算法决策中的偏见的审查》报告,讨论了英国目前对算法决策和算法伦理的监管情况。该报告指出,很多组织不确定如何在算法中减少偏见,需要政府和行业出台政策来规范。[10]2021年9月,英国《国家人工智能战略》强调通过数据伦理与创新中心(CDEI)工作的开展来解决算法决策中的偏见问题,种族和民族差异委员会建议对所有应用算法的公共部门、组织规定强制性的透明度义务,特别是那些影响个人重大决策的算法。同时,中央数字和数据办公室(CDDO)正在研究,根据《国家人工智能战略》的承诺,制定一个跨政府的算法透明度标准。到目前为止,还没有其他国家在国家层面上制定算法透明度的标准,这将使英国未来在开放数据和数据道德方面保持领先。同年,英国安全行业协会(BSIA)发布了《自动面部识别:道德和法律使用指南》,为安全提供商和终端用户使用自动面部识别(AFR)技术提供一个道德和法律的框架。该指南包含了数据保护、人权、同意、透明度、问责、准确性和偏见等方面的主题,介绍了自动面部识别(AFR)技术的法律和道德原则,强调遵守数据保护法规、尊重人权和隐私权、合法有效的知情同意权以及保证透明度和问责制。[11]
    (2)面向大数据伦理监管的政策布局
    英国在大数据伦理监管方面基于国家战略推出了多项政策、倡议和咨询,进行战略布局。2020年9月发布的《国家数据战略》提出了五大支柱战略,其中一个战略强调了在伦理和公众信任领域推动变革的重要性,只有在一个透明、有保障的伦理框架下发展,才能持续建立和保持公众对政府使用数据的信任。[12]在这一战略思想指导下,中央数字和数据办公室(CDDO)和政府数字服务局(GDS)推出《数据伦理框架》,指导政府和更广泛的公共部门以适当和负责任的方式使用数据。框架包含三项总体原则(透明度、问责制、公平性)和五项具体行动(界定公共利益和用户需求、让不同的专家参与进来、遵守法律、审查数据的质量和局限性、评价和考虑更广泛的政策影响)。
    同时,遵循《国家数据战略》所确立的“更好地利用数据帮助各种组织取得成功”的主旨精神,英国在正式脱离欧盟后着手对数据保护法进行改革。2022年6月,英国政府公布了《数据:新的方向—政府对咨询的回应》,囊括了一系列对《通用数据保护条例》(GDPR)、《2018年数据保护法》和《隐私和电子通信条例》(PECR)等英国现行主要数据法规详细而全面的修正建议。包括:减少负责任创新的障碍,建议英国立法机构制定数据使用正当利益清单,简化人工智能等尖端技术研发时的数据使用规定;减少企业的负担,摒弃“一刀切”的做法,小微企业不与大型科技公司适用相同的数据保护程序;减少数据流动的障碍,如可授权企业开发自有的数据传输机制,允许政府适时引入新的数据转移替代机制等。
    大数据伦理监管政策的重点领域布局主要集中于公平性方面。《数据伦理框架》(2020)明确了公平性的概念,即消除数据项目对个人和社会群体产生意外歧视性影响,减少可能影响数据模型结果的偏见,以确保数据的使用符合公正、非歧视性、公共利益、人权和民主价值。《理解人工智能伦理和安全》(2019)提出了数据公平的五大关键因素,包括数据受法律保护群体、数据样本充分反映所要分类人群的资格属性、数据来源的完整性和测量精度、数据集的及时性和最新性以及合适的数据来源和类型。
    (3)面向区块链伦理监管的政策布局
    目前,英国没有针对区块链伦理的具体政策规定,而是依赖于适用于所有数字技术的一般法律法规。不过,一些监管机构发布了关于在特定行业使用区块链技术的指南。如,英国金融监管机构金融行为监管局(FCA)发布了关于在金融服务中使用区块链和分布式账本技术的指南,强调采取强有力的网络安全措施和技术透明度对区块链进行监管。FCA还要求金融公司建立健全风险管理系统,以确保客户数据和资金的安全。国家卫生服务局(NHS)建立了一个区块链实验室,探索区块链技术在医疗保健领域的应用,试验基于区块链实现患者数据共享、药品供应链管理等。国际贸易部推出了区块链贸易融资平台,旨在提高国际贸易交易的效率和透明度。英格兰和威尔士慈善委员会发布了关于在慈善领域使用区块链技术的指南,涵盖透明度、问责制和公众对慈善机构的信任等主题。
    值得注意的是,区块链技术的监管环境在不断发展,英国政府可能会在未来发布针对区块链伦理的具体政策。
    三、英国数字科技伦理监管的主要模式与机制
    经过多年的发展,英国数字科技伦理监管已经形成了政府部门主导、政府部门与跨政府组织上下联动、多中心、分散式的监管模式与机制。
    1.政府部门与跨政府组织联动式监管
    2018年4月,上议院人工智能特别委员会报告《英国的人工智能:准备好、意愿和有能力?》认为,在当前阶段一刀切地针对人工智能的监管是不合适的。最有能力考量人工智能对特定行业影响并开展后续监管的,是已经存在的针对特定行业的监管机构。随后政府部门开始制定涵盖其管辖区的伦理治理措施。信息专员办公室(ICO)、数字、文化、媒体和体育部(DCMS)、数据伦理与创新中心(CDEI)、竞争和市场管理局(CMA)、人工智能办公室、应用数据伦理中心、英国金融市场行为监管局(FCA)、数据标准管理局等政府部门和公共机构在数据伦理框架、人工智能伦理框架、应用数据伦理、加密货币资产指南、算法决策偏见审查、数字监管机构合作、包容性数据等领域发布指南,形成了数字科技伦理治理的初步框架。
    此外,咨询小组和委员会、网络和社区等跨政府组织通过设立秘书处、向政府部门提供建议以及提供开放社区等方式,同政府部门上下联动,共同参与对数字科技伦理的监管和规范。如,数据伦理与创新中心(CDEI)通过创建公众对数据和人工智能态度网络(PADAI)与公众接触。英格兰银行(Bank)和金融行为监管局(FCA)成立了人工智能公私论坛(AIPPF),促进公共部门、私营部门和学术界之间关于人工智能的对话。这种模式使得政府部门在监管过程中起主导作用,并与跨政府组织形成有效的联动关系。
    2.分散式多中心监管
    英国政府2022年发布的《人工智能监管政策文件》指出,英国针对数字科技伦理的监管是一种去中心化的监管模式。与欧盟的人工智能法案提案不同,英国采取的去中心化的人工智能监管方法主要依赖于现有监管机构的经验和专业知识,通过发布指导意见,更好地应对技术变革。
    (1)不设集中监管机构
    英国政府认为建立一个具有执法权力的集中监管机构来监管所有部门的数字科技伦理可能会存在困难和挑战,因为各个部门的数字科技应用场景和监管需求各不相同。相反,英国政府计划利用现有监管机构实现多中心的监管模式。这种多中心的监管模式意味着不同的监管机构将负责监管各自领域内的数字科技伦理。如,对于医疗领域的数字科技伦理,由英国国家医疗服务体系数字化发展部(NHSX)和英国卫生和社会保健部(DHSC)负责监管,对于金融领域的人工智能伦理则由金融行为监管局(FCA)负责监管。监管机构可以更加专注于自身领域内的人工智能应用,提供更具体的伦理监管要求和建议,提高监管效率。
    (2)利用现有监管机构的经验和专业知识
    英国政府要求现有监管机构发布伦理监管指导意见,重点强调适用于他们所监管的企业。这种方法的优点在于,它可以利用现有监管机构的经验和专业知识,为企业提供更具体的指导和建议。此外,该方法还有助于企业更好地理解和遵守监管要求,减少不必要的监管成本和风险。当企业在遵守监管要求方面遇到困难或存在争议时,它们也可以向监管机构咨询和寻求帮助。
    (3)分散式的监管模式更适应技术变革
    英国政府希望多中心、分散式的数字科技伦理监管模式能更适应技术变革,保持监管与技术发展的同步性和协调性。随着人工智能等数字科技的发展,监管要求需要不断调整和更新。多中心、分散式的监管模式可以灵活应对技术变革,每个监管机构可根据自己管辖领域需要及时更新、发布新的伦理监管要求和指导意见,有助于防止监管滞后和过度监管。
    3.不依赖单一主要立法式监管
    《人工智能监管政策文件》(2022)确认英国政府目前没有计划引入新的立法来监管人工智能。不依赖单一主要立法的环境导向型治理方法让英国在特定行业的人工智能伦理风险管理上更灵活。如,几个政府部门和公共机构发布了《理解人工智能伦理和安全》(2019)、《人工智能采购指南》(2020)、《算法透明度标准》(2021)、《数据伦理框架》(2020)、《自动面部识别:道德和法律使用指南》(2021)等指南,作为《平等法》、公共部门采购和算法透明度等领域现有法规的补充。与欧盟相对僵化的数字科技伦理监管方式相比,英国采取的不依赖单一主要立法的数字科技伦理监管方式提供了更轻松、灵活的监管方法。
    尽管不依赖单一主要立法的数字科技伦理监管体系更适应技术变革,但相比集中化监管,存在监管一致性较差的问题,因此英国政府希望制定跨部门的数字科技伦理治理标准来补充监管体系。《政府对上议院人工智能特别委员会的回应》(2021)建议,数据伦理与创新中心(CDEI)建立和公布人工智能伦理的国家标准。《人工智能监管政策文件》(2022)概述了六项跨部门的人工智能治理原则草案。《促进创新的人工智能监管方法》(2023)进一步提出了五项跨部门伦理标准。
    4.部分监管权力下放的监管
    英国数字科技伦理监管将部分权力下放至分权行政机构苏格兰政府、威尔士政府和北爱尔兰政府,使其在某些数字科技领域具有高度的政策自主权。下放的权力包括与人工智能等数字科技相关的领域,如医疗保健、教育和金融等。数据保护等其他领域则“保留”给英国议会及政府。[13]此举促使苏格兰政府早于英国政府6个月,在2021年3月就发布了《苏格兰人工智能战略》。英国政府将监管权力下放给特定行业监管机构和地方议会,同时积极推动国际合作,建立全球范围内的数字科技治理框架。
    四、英国数字科技伦理监管实践对我国的启示
    1.政府制度设计的经验启示
    在政府制度设计层面,英国虽然没有引入新的立法来对数字科技可能涉及到的伦理风险进行监管,但英国政府通过上议院人工智能特别委员会提出了人工智能伦理的五项核心原则。在这一核心原则的指导下,英国持续推出关于数字科技伦理监管的政策。在政策制定过程中,英国强调从“什么是人工智能伦理”转向“如何在AI系统的开发和部署中注入伦理”。这种关注伦理实践的方法有助于将伦理原则真正落实到实际应用中。此外,英国政府还倡导跨部门的治理原则和标准,这种协调一致的制度设计有助于避免各部门在监管角度和标准上的冲突,提高政策制定的协调性和一致性。英国政府强调支持创新,并提出“有利于创新的人工智能治理框架”的愿景。这种鼓励创新的政策取向有助于促进数字科技的发展,同时保持对伦理原则的重视。总体而言,英国数字科技伦理制度设计的经验启示是:不依赖单一主要立法、持续关注伦理实践、倡导跨部门治理原则和标准,这些做法有助于建立灵活、协调、适应性强的数字科技伦理监管体系。
    中国在数字科技伦理监管的制度构建和政策设计过程中,一方面,可以借鉴英国的协作方式,涵盖多个监管机构和部门的意见,建立更全面的视角和更广泛的参与。鼓励跨部门合作,制定跨部门数字科技伦理治理原则,更好地应对数字科技的挑战和问题。另一方面,可以考虑制定人工智能伦理的国家标准,为企业和政策制定者提供参考,关注数字科技在开发和部署过程中的伦理考量,使伦理原则在实践中得到有效应用。
    2.监管模式设计的经验启示
    在监管模式设计方面,英国对数字科技伦理监管的主要模式是政府部门主导,政府部门与跨政府组织上下联动、多中心、分散式的监管模式。具体来说,从整体来看英国政府在数字科技伦理监管中发挥主导作用,各政府部门共同参与制定政策和标准,确保政府在数字科技伦理方面的一致性和协调性。信息专员办公室(ICO)、数字、文化、媒体和体育部(DCMS)、数据伦理与创新中心(CDEI)、人工智能办公室等政府部门与跨政府组织密切合作,形成了有机的监管网络。从分类的角度看,英国避免“一刀切”式的监管,对人工智能、大数据、区块链等数字科技进行分类,由不同的监管主体进行科学分类监管。由此,英国数字科技的监管模式设计对中国的启示如下:
    (1)构建分类监管体系
    中国可以根据数字科技应用场景和监管需求的不同,建立适当的监管机构,以实现针对性监管。如,对于医疗领域的数字科技伦理,可以建立类似于英国国家医疗服务体系数字化发展部(NHSX)的机构。对于统计数据领域,可仿照英国统计局建立国家统计数据伦理咨询委员会(NSDEC)和应用数据伦理中心。中国监管部门可根据自身的情况和需求,避免“一刀切”,利用现有部门监管机构的经验和专业知识,构建分类监管体系,针对性地对相关行业的数字科技伦理进行监管,发布相关的伦理监管指导意见,提高监管效率,减少监管成本。
    (2)建立跨政府组织协作机制
    建立跨政府组织协作机制是数字科技伦理监管的必要举措,可以为中国数字科技伦理监管提供有益的经验借鉴。中国应建立数字科技伦理监管的跨政府组织协作机制,协同推进数字科技伦理监管工作。各部门可以根据自身职能设立相应的工作组、咨询小组、委员会、公众论坛、网络和社区等跨政府组织,共同研究数字科技伦理治理问题,探索应对措施。此外,注重跨部门和跨领域的合作,整合各方资源,推进数字科技伦理治理的有机融合,这样可以避免监管上的重复和漏洞,提高数字科技伦理监管的效率和质量。通过政府部门与跨政府组织之间的协作,整合各方资源,共同推进数字科技伦理治理,有助于保障公众权益和社会稳定。
    3.多利益主体参与的经验启示
    英国在数字科技伦理监管过程中将权力下放给特定行业监管机构和地方议会,使其能够管理其管辖范围内的数字科技,让地方政府和企业在数字科技伦理监管的过程中拥有更多的自主权和政策空间。这一数字科技伦理监管模式不仅可以更好地满足地方实际需求,还可以让地方政府和企业更加主动地参与数字技术的发展和应用,并且根据实际情况对数字技术进行更为精细和有效的管理。此外,英国政府在数字科技伦理监管方面强调多利益主体的参与,包括公众、行业专家、学者等。如,英国数据伦理与创新中心(CDEI)通过创建公众对数据和人工智能态度网络(PADAI),更好地与公众接触。这有助于建立一个更加开放和包容的监管体系,更好地保障公众利益。
    中国在数字科技伦理监管的制度构建过程中,可以赋予地方政府和企业更多的自主权和责任,更好地促进数字技术在各个地区的普及和发展。由于不同地区的经济、文化和需求存在差异,地方政府和企业更加了解本地实际情况,因此能够更灵活地制定数字科技伦理规范,以更好地适应本地区的实际情况和需求。这也可以促进数字技术在不同地区之间的交流和合作,实现资源共享和互惠互利,从而推动数字化转型和经济发展的全面升级。另一方面,可以借鉴英国的模式,不能仅仅从政府或企业的角度出发,而是应该全面考虑多方利益主体的需求和利益,建立包容性和多元化的伦理监管框架。政府可以与企业、社会公众、专业机构、研究人员等各方联动,共同制定数字科技伦理监管政策,以确保公正、透明、负责任和可持续的数字科技发展。建立包容性、多元化的监管框架,注重多利益主体的需求和利益,同时也需要针对不同领域和场景进行分类管理和监管,建立具有约束力的数字科技伦理行业指南和标准。中国可以根据自己的情况,针对不同行业和应用场景建立数字科技伦理指南和规范,包括面向不同行业和应用场景的数据保护、公平性、透明度、问责、准确性和偏见等方面的规范和建议,以指导企业和公民的数字科技伦理行为,保障公民的权益和创造更好的商业环境。此外,这些指南和标准的制定还可以提高企业的社会责任意识,加强其对数字科技伦理问题的重视,从而进一步推动数字科技产业的健康发展。
    参考文献
    [1]Eight Great Technologies:Big Data[EB/OL].https://www.gov.uk/government/publications/eight-great-tech nologies-big-data,2023-03-10.
    [2]UK Data Capability Strategy:Seizing the Data Opportunity[EB/OL].https://www.gov.uk/government/pub lications/uk-data-capability-strategy,2013-10-31.
    [3]House of Commons-Responsible Use of Data-Science and Technology Committee[EB/OL].https://publications.parliament.uk/pa/cm201415/cmselect/cmsctech/245/24502.htm,2023-07-05.
    [4]House of Commons-The Big Data Dilemma-Science and Technology Committee[EB/OL].[2023-07-05].https://publications.parliament.uk/pa/cm201516/cmselect/cmsctech/468/46802.htm.
    [5]House of Commons-Robotics and Artificial Intelligence-Science and Technology Committee[EB/OL].https://publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/14502.htm,2023-07-05.
    [6]House of Lords-AI in the UK:Ready,Willing and Able?-Artificial Intelligence Committee[EB/OL].https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/10002.htm,2023-02-28.
    [7]Government Response to the House of Lords Select Committee on Arti fi cial Intelligence[EB/OL].https://www.gov.uk/government/publications/government-response-to-the-house-of-lords-select-committee-on-artificial-int elligence/government-response-to-the-house-of-lords-select-committee-on-arti-cial-inte lligence,2023-03-13.
    [8]Understanding Artificial Intelligence Ethics and Safety[EB/OL].https://www.gov.uk/guidance/understanding-artificial-intelligence-ethics-and-safety,2023-02-23.
    [9]Establishing a Pro-Innovation Approach to Regulating AI[EB/OL].https://www.gov.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovati on-approach-to-re gulating-ai-policy-statement,2023-02-21.
    [10]Review into Bias in Algorithmic Decision-Making[EB/OL].https://www.gov.uk/government/publications/cdei-publishes-review-into-bias-in-algorithmic-decision-making/main-report-cdei-review-into-bias-in-algorithmic-decision-making,2023-02-27.
    [11]Automated Facial Recognition:Ethical and Legal Use[EB/OL].https://www.gov.uk/government/publications/automated-facial-recognition-ethical-and-legal-use,2023-03-01.
    [12]National Data Strategy[EB/OL].https://www.gov.uk/government/publications/uk-national-data-strategy/national-data-strategy,2023-03-09.
    [13]Roberts H,Babuta A,Morley J,et al.Artificial Intelligence Regulation in the United Kingdom:A Path to Good Govermance and Global Leadership?[J].Internet Policy Review,2022,12(02):1-31.
    李书苑,铁道党校讲师,中国社会科学院工业经济研究所博士研究生;
    阳镇,中国社会科学院工业经济研究所助理研究员,博士,清华大学技术创新研究中心兼职副研究员,研究方向为企业技术创新与可持续发展。
    肖红军,李书苑,阳镇.数字科技伦理监管的政策布局与实践模式:来自英国的考察[J].经济体制改革,2023,(05):156-166.
    
    

Tags:数字科技伦理监管的政策布局与实践模式,来自英国的考察  
责任编辑:admin
相关文章列表
没有相关文章
请文明参与讨论,禁止漫骂攻击。 昵称:注册  登录
[ 查看全部 ] 网友评论
| 设为首页 | 加入收藏 | 网站地图 | 在线留言 | 联系我们 | 友情链接 | 版权隐私 | 返回顶部 |