欧洲委员会拟议的AI监管方法是上周发表的,并且对您的技术启用了业务和生活可能具有深远的影响。这不是规则的利基角,并将对从智能产品到社交媒体平台和连通零售商的所有内容进行广泛应用。

本说明将该提案扩展到几个关键要点,以迅速跨越新规定涵盖的主要领域,这将在未来几个月内发生热烈讨论。我们将在未来几周内从多个角度看待这一点。

这是您的速度阅读:

  • 概念:拟议的监管构成了欧盟欧盟欧盟欧盟的“信托生态系统”的基础。将完全禁止使用AI的少数用途。否则,想法是在最重要的方式影响欧盟公民的那些AI系统上施加共同标准。从律师的角度来看,欧盟建议通过基于风险的监管来实现这些目标,其方法是现有的数据保护和产品安全制度。
  • 额外的领土范围:监管将适用于高风险的ai可用的在欧盟内,用过的在欧盟或谁境输出影响欧盟的人。因为目的是为了保证和保护欧盟公民的关键权利,所以提供者或用户是否在欧盟范围内无关紧要。因此,例如,在欧盟外部的服务器上托管AI和/或AI所做的决定,或增强的决定是欧盟外部的活动,仍然可以应用。
  • 制裁:罚款可能非常实质性,高达3000万欧元或6%的全球营业额(更高),这可能是重叠的违规,例如GDPR在全球营业额的4%。
  • AI.:人工智能非常广泛地定义,并将捕捉已经广泛使用的许多技术。该定义也是未来的证据,因为该提案包括授予委员会权力,以更新范围内的那些技术和方法。
  • 禁止做法:禁止对违反基本权利或寻求操纵或利用某些类别的人有重大潜力的AI实践 - 包括一般监督,不利行为广告和社会评分。
  • 高风险AI系统:由于安全影响,AI可能被归类为高风险,或者因为它可能影响基本权利;监管附件三包括一个被视为“高风险”的AI系统新名单。在实践中,技术的许多常见用途将属于此类别,并成为完整的合规制度。对于剩下的非高风险的AI,将适用一些基本控制,但委员会还将鼓励提供者自愿行为和额外承诺。
  • 提供者:适用于提供者的最繁重的控制 - 一个人或组织,开发AI系统,或者具有AI系统的开发,以便将其放在市场上或将其放入自己的名称或商标,无论是付款或免费。适用于提供商的许多控件将熟悉那些一般地跟踪AI发展和提案的人:透明度;准确性,鲁棒性和安全性;问责制;测试;数据治理和管理实践;和人类监督。欧盟特定方面包括提供商通过进行整合评估并贴上CE标记来自我认证的高风险AI的要求,该高风险AI必须在首次使用/提供之前在新的欧盟数据库上注册和要求提供商在进行事件报告系统,并对严重违规行为/不合规进行纠正措施。
  • 进口商,分销商和用户:高风险AI价值链中的其他参与者也将受到新的控制。例如。进口商 - 需要确保提供商进行了符合性评估,并制定了所需的技术文件。用户 - 将按照其指令使用AI,监控其出现问题(和向提供商/分销商的标记),保留日志等。个人使用不包括在用户义务之外。
  • 下一步:该提案将受到强烈的审查和游说。它可能还是修改在欧洲理事会和欧洲议会采用之前。时间尺度难以预测,但一旦完成并正式公布,在它生效之前将有至少两年的优惠时间。这将允许提供者和其他人在价值链时间中确保与现有AI相关的合规性。

很快就会从英国的角度下追随。