硬或软法?

人工智能的监管是一个热门话题几乎不令人惊讶。AI正在采用速度采用,新闻报道经常出现高调的AI决策,以及有关各方消化的纯粹的指导和监管提案似乎有挑战性。

我们现在在哪?我们在未来的监管方面可以预期什么?什么可能遵守“伦理”的AI需要?

High-level ethical AI principles were made by the OECD, EU and G20 in 2019. As explained below, great strides were made in 2020 as key bodies worked to capture these principles in proposed new regulation and operational processes. 2021 will undoubtedly keep up this momentum as these initiatives continue their journey into further guidance and some hard law.

与此同时,通过调节与现实(经常涉及技术创新的情况),行业试图通过开发自愿代码来提供保证。虽然这是有帮助和可靠的,但监管机构正在观察到更加一致,基于风险的监管是志愿的最佳实践。

我们概述了下面最重要的举措,但首先值得了解使用AI的组织的监管可能是什么样子。

Regulating AI

当然,魔鬼将详细,但分析来自全球各地的最具影响力的论文,揭示了普遍的主题,这是监管前的可能性。它揭示了概念上,AI的调节相当简单,有三个关键组成部分:

  • setting out the standards to be attained;
  • 创造记录保留义务;和
  • 在审计这些记录后可能的认证,这将由基于风险的方法构成。

S.tandards

Quality starts with the governance process around an organisation’s decision to use AI in the first place (does it, perhaps, involve an ethics committee? If so, what does the committee consider?) before considering the quality of the AI itself and how it is deployed and operated by an organisation.

将在AI中推动标准的关键领域包括用于教导算法(缺陷数据可以“在”不平等或歧视“,人类监督的程度以及IT的准确性,安全性和技术稳健程度的培训数据的质量。通常还有期望通过决策影响的某些信息,例如消费者或求职者。这包括解释这些决定和挑战它们的能力 - 当在神经网络的所谓的“黑匣子”中做出决定时,进程更加复杂。针对特定AI监管的争论是,一些质量标准已经在普律法中载有,最明显的平等法律,以及相关数据保护。然而,最近的伦理标准的重视意味着历史上被认为是柔软的漂亮的AI的某些方面可能会因为使用AI的组织而努力发展。例如,欧洲议会去年举行的伦理AI框架包括强制性社会责任和环境可持续性义务。

Records

证明过程和标准been met, record-keeping will be essential. At least some of these records will be open to third-party audit as well as being used for self due diligence. Organisations need a certain maturity in their AI governance and operational processes to achieve this, although for many it will be a question of identifying gaps and/or enhancing existing processes rather than starting from scratch. Audit could include information about or access to training data sets; evidence that certain decisions were made at board level; staff training logs; operational records, and so on. Records will also form the foundation of the all-important accountability aspects of AI. That said, AI brings particular challenges to record-keeping and audit. This includes an argument for going beyond singular audits and static record-keeping and into a more continuous mode of monitoring, given that the decisions of many AI solutions will change over time, as they seek to improve accuracy. This is of course an appeal of moving to AI, but creates potentially greater opportunity for bias or errors to be introduced and scale quickly.

Certification

令人满意的审计可以通知AI认证,帮助推动质量,并在成功使用AI的AI决策方面建立客户和公众信心。同样,虽然AI的不断变化的性质,但“学习”复杂化的事项,需要衡量与AI风险的这些方面交谈的标准和监测能力。

Risk-based approach

认识到AI的使用范围从相对微不足道的危急和/或社会敏感的决策,最佳实践和监管建议总是采取灵活的方法,对“高风险”的使用焦点要求。这个概念是关键;相称,可行的规则必须考虑到要部署AI的背景以及其潜在影响,而不是仅关注技术本身。

主要举措和建议

转向AI监管中的一些更重要的发展,有一些值得关注的细节:

经合组织

经合组织于11月概述了AI系统的分类,以便为政策制造商提供一个简单的镜头,通过该镜头来查看任何特定的AI系统的部署。其分类使用四个维度:上下文(即部门,利益相关者,旨在等);数据和输入;AI模型(即神经或线性?监督或未监督?);和任务和输出(即ai做什么?)。阅读更多here

Europe

S.Everal Insporal提案于2020年按主要机构发布。

在春天,欧盟委员会的白皮书on AI proposed regulation of AI by a principles-based legal framework targeting high-risk AI systems. It believes that regulation can underpin an AI “Eco-system of Excellence” with resulting public buy-in thanks to an “Eco-system of Trust.” For more detail see our 2020客户警报Industry response to this proposal was somewhat lukewarm, but the Commission seems keen to progress with regulation nevertheless.

在秋天,欧洲议会通过了它的Framework for Ethical AI,适用于“AI,机器人和相关技术,在EU内开发,部署和或使用”(无论软件,算法或数据本身的位置如何)。与委员会的白皮书一样,该提议也针对高风险的AI(虽然在两项建议之间没有对实践中的高风险手段)。除了我们早些时候触及的社会和环境方面,在这一提议的道德框架中,我们认为是强调达到认证所需的人类监督。同时欧洲议会看着IP ownership for AI generated creations和published its proposedRegulation on liability for the Operation of AI systemswhich recommends, among other things, an update of the current product liability regime.

尊贵人权镜头,欧洲委员会审议了AI的法律框架的可行性以及如何最佳地实现。发表于12月,其report确定现有法律保护的差距(欧洲议会研究服务也已达成的结论,发现现有法律虽然有用,但缺乏其拟议的AI伦理框架所需的标准)。工作现在正在举行约束和非约束工具来前进。

United Kingdom

AI委员会的AI路线图为英国政府的战略方向提出建议。1921年1月报告涵盖了一系列地区;从促进英国人才到信任和治理。有关更多详细信息阅读执行摘要

前一个月,在2020年12月,上议院发表了英国的AI:没有自满的空间一份报告,重点强调了对AI和相关伦理框架的相关问题。注意到该行业目前是自我规范的,该报告推荐的部门监管将延伸到实际建议以及原则和培训。鉴于欧洲委员会的工作委员会审查了超过100个道德AI文件的审查,这似乎是一个合理的结论,它发现,它发现,从共同原则开始,但在运营实践时毫无不同地解释这些差异。

government’s response刚刚发表了该报告。它认识到AI中公众信任的必要性“包括嵌入与共识规范框架的道德原则。”该报告促进了许多举措,包括AI委员会和ADA Lovelace Institute的工作,他们共同为他们即将报告的数据治理制定法律框架。

这influential Centre for Data Ethics and Innovation published itsAI barometer及其审查算法决策中的偏差。这两个报告都有很有趣的阅读;晴雨表报告在众多部门观察风险和规定。在规定的背景下,Cdei不推荐英国的专家AI监管机构,但似乎有利于行动方法,如果需要调节。

Regulators

监管机构当然有兴趣合法使用,但也涉及更大的画面。可能会决策缺点某些消费者吗?由于主要参与者对任何特定算法和/或数据池(竞争当局也将对这方面感兴趣的竞争机构也感兴趣),因此可以无意中创建部门漏洞。英国的竞争和市场权威于1月份公布了潜在的AI危害,并呼吁证据是最有效的监管AI的方法。访问CMA网站here

金融行为授权将发布对金融服务透明度的报告。不出所料,英国的数据保护监管机构发布了帮助组织在数据保护合规范围内的审计AI的指导,以及来自图灵研究所的详细指导的公共部门的利益。

Regulators themselves are now becoming more a focus. The December House of Lords report also recommended regulator training in AI ethics and risk assessment. As part of its February response, the government states that the Competition and Markets Authority, Information Commissioner’s Office and Ofcom have together formed a Digital Regulation Cooperation Forum (DRCF) to cooperate on issues of mutual importance and that a wider forum of regulators and other organisations will consider training needs.

2021 and beyond

在欧洲,尽管丹麦及其其他人可能会受到监管,但我们可以在2021年在2021年在2021年在2021年开始发展的监管发展。由于我们越来越多地开发分类和风险评估的工具,因此,关于是否规范,但更多关于哪些申请,背景和部门是早期监管的候选人。