欧洲委员会拟议的AI监管方法是上周发表的,并且对您的技术启用了业务和生活可能具有深远的影响。这不是规则的利基角,并将对从智能产品到社交媒体平台和连通零售商的所有内容进行广泛应用。

本说明将该提案扩展到几个关键要点,以迅速跨越新规定涵盖的主要领域,这将在未来几个月内发生热烈讨论。我们将在未来几周内从多个角度看待这一点。

这是你的速读:

  • 概念:拟议中的法规构成了欧盟在人工智能领域的“信任生态系统”的基础。AI的一些用途将被完全禁止。否则,欧盟将对那些对欧盟公民产生重大影响的人工智能系统实施共同标准。从律师的角度来看,欧盟提议通过与现有数据保护和产品安全机制类似的基于风险的监管来实现这些目标。
  • 额外的领土范围:监管将适用于高风险的人工智能可用在欧盟内,使用在欧盟内部或在其国家输出影响了欧盟的人民。因为其目的是安抚和保护欧盟公民的关键权利,所以提供商或用户是否在欧盟内部无关紧要。所以,例如,当AI托管在欧盟之外的服务器上,并且/或AI做出或增强的决定是在欧盟之外进行的活动时,该机制仍然可以适用。
  • 制裁:罚款可能非常实质性,高达3000万欧元或6%的全球营业额(更高),这可能是重叠的违规,例如GDPR在全球营业额的4%。
  • 人工智能人工智能的定义非常宽泛,它将涵盖一些已经广泛应用的技术。这一定义将来也会得到证明,因为提案包括赋予委员会更新属于范围内的技术和方法的权力。
  • 禁止做法:人工智能有很大可能违反基本权利或企图操纵或利用某些类别的人的做法将被禁止,包括一般监察、不良行为广告和社会评分。
  • 高风险AI系统:由于安全影响,AI可能被归类为高风险,或者因为它可能影响基本权利;监管附件三包括一个被视为“高风险”的AI系统新名单。在实践中,技术的许多常见用途将属于此类别,并成为完整的合规制度。对于剩下的非高风险的AI,将适用一些基本控制,但委员会还将鼓励提供者自愿行为和额外承诺。
  • 提供者:最繁重的控制将适用于供应商——一个人或组织,发展一个人工智能系统,或者有一个人工智能系统的发展,以将其放置在市场上或投入服务的名称或商标,付款还是免费的。对于那些一直在追踪AI发展和提议的人来说,许多适用于供应商的控制是很熟悉的:透明度;准确性、稳健性和安全性;问责制;测试;数据治理和管理实践;和人类的监督。欧盟的具体方面包括要求供应商通过进行合格评估和贴上CE标志来自我认证高风险人工智能,高风险人工智能在首次使用/提供前必须在新的欧盟数据库中注册,以及要求供应商建立事件报告系统,并对严重违规/不合规行为采取纠正措施。
  • 进口商、分销商和用户高风险人工智能价值链的其他参与者也将受到新的控制。例如:进口商需要确保供应商进行了符合性评估并起草了所需的技术文件。用户-将被要求按照它的指示使用AI,监控它的问题(并将任何问题标记给供应商/分销商),保持日志,等等。个人使用不包括用户义务。
  • 下一个步骤:该提案将受到强烈的审查和游说。它可能还是修改在欧洲理事会和欧洲议会采用之前。时间尺度难以预测,但一旦完成并正式公布,在它生效之前将有至少两年的优惠时间。这将允许提供者和其他人在价值链时间中确保与现有AI相关的合规性。

从英国的角度来看,不久还会有更多的公司跟进。