欧洲委员会提出了一种对欧洲人工智能方法的监管(AI法案)以及ASAn更新人工智能协调计划2021年4月21日。委员会陈述意图这种方法保障人民和企业安全和基本权利,同时加强人工智能 (AI.吸收投资,和创新的欧洲联盟 (欧洲联盟.它是一个的延续委员会是欧洲对艾的策略,人工智能高级别专家组值得信赖的指导方针艾,T.他委托了人工智能白皮书

人工智能对各个行业都有影响-已确立的公司以及初创公司■合并AI.技术他们的服务中的奥文为客户提供新的功能和经验。这也适用于法律行业,特别是律师事务所添加软件工具AI组件他们的合法的服务产品(所谓的“法律技术”).法律技术例如用于分析合规风险或streamlin公司工作在M&A交易中

这篇文章详细介绍了建议的AI法案关于法律技术利用AI.*

适用范围

AI法案将会铺设统一的上市规则,投入服务规则和使用AI系统欧洲联盟(艺术。1(一)).

将要适用于y(第2(1)

  1. 提供者放在市场上或投入服务AI系统欧洲联盟,无论如何W.回避这些提供者已确立的欧洲联盟或在第三个国家
  2. 用户AI系统位于在联盟
  3. 提供者和用户AI系统的位于第三个国家,哪里由系统产生的输出用于该输出欧洲联盟。

意味着AI行为将要也是y提供给欧盟以外的法律技术提供商,为欧盟用户提供服务。在哪里都没关系例如,服务器的位置。这也意味着c可能需要利用法律技术的OMMAN和律师事务所遵守AI法案的某些义务

T.他的人工智能法将要不适用于私人、非专业用户,因为定义一种用户排除使用人工智能系统个人非专业活动(第3(4))。所以,AI法案将要不适用于最终用户,例如人员使用法律技术来获得合法问题的答案通过多项选择工具

避免冲突领域主权和国际法,AI法案将要不适用于公共当局在第三国或者到国际组织,这些机构或组织在执法和司法合作框架内使用AI系统欧洲联盟或与一个或多个成员国(第2(4)).

ai的定义系统

AI法案将要适用于y到AI系统中定义的它的艺术。3(1)

AI系统意味着用一个开发的软件或者更多的附件一市中列出的技术和方法AI法案并且可以,对于一套人为定义的目标,生成内容、预测、建议或决策会影响它们所交互的环境(第3(1)).

列出的AI技术和方法附件一T.的阿AI法案一种关于:

  1. 机器学习方法,包括监督、无监督和强化学习,使用各种各样的方法,包括深入学习
  2. 基于逻辑和知识的方法,包括知识表示,归纳(逻辑)编程,知识库,推理,和推理引擎,(符号)推理和专家系统
  3. 统计方法,贝叶斯估计,搜索,和优化方法。

这个定义已经很宽泛了将要涵盖了很多法律技术解决方案是通过赋予T的未来证据他委托通过委派法令更新进一步修改相关的AI技术和方法列表(第4条).但很有可能不是所有的法律技术解决方案将受到AI充满行动的管辖,因为许多法律技术不符合这些标准 - 例如与过程优化或与客户通信相关的工具。

基于风险的AI系统类别

提议AI法案一种基于风险的方法,具有四种风险:不可接受的风险,高风险, 有限的风险,和最小的风险虽然在提案中没有明确提及法律技术,但许多合法的技术解决方案将被覆盖不同的类别并要求他们遵守新的监管义务

法律技术被认为是不可接受的风险

一种有限的AI违反欧盟值的有害用途艺术将被禁止。5的5AI法案这并不直接包括任何法律技术解决方案,但它特别包括导致身体或心理伤害,政府社会评分,利用儿童脆弱性的系统使用潜水线技术s。法律技术将被禁止利用艺术中列出的这些和其他AI惯例。5的5AI法案

法律技术被认为是高风险的

一些可能的法律技术解决方案列为HIgh-Risk AI系统附件三T.的阿AI法案基于艺术。6(2)的AI法案.这是主要是合法的公共机构(包括执法)和法院使用的技术:

  • 高风险AI系统的5类担心一种Ccess和享受基本公共服务和享受好处并包括AI系统旨在由公共当局或代表公众使用当局评估自然人获得公共援助的资格福利和服务,以及授予,减少,撤销或回收福利和服务(点燃a。)
  • 6类高危AI系统S.担心不同的区域L.AW执法并包括AI系统旨在由执法权限用于评估调查或起诉的证据可靠性刑事犯罪(点亮d。)AI系统旨在用于有关自然人的犯罪分析,允许执法当局搜索复杂相关和无关在不同的数据源或以不同的数据格式可用大型数据集为了识别未知的模式或发现数据中隐藏的关系(点燃。)
  • 高风险AI系统的第7类S.涉及M.董事,庇护和边境管制管理并包括AI系统打算协助主管公共当局考试庇护,签证和住宅的应用许可证和相关的抱怨关于至于对于有关申请自然人的资格地位(点亮d。)
  • 和类别8.高风险人工智能系统的担忧A.司法和民主进程AI系统打算协助研究和司法权威解读事实和法律及法律将法律应用于一个具体事实(点燃a。).40章节到规定澄清了这一点不是延展到人工智能系统用于纯辅助不影响实际的行政活动在个人案件中管理司法,例如匿名或司法判决的假名,D.文件或数据之间的通信人员,行政人员任务,或资源分配。

第7条AI法案通过采用委派行为,授权委员会修改附件三的高风险AI系统名单.如上所述,这将允许委员会跟上新的发展与实施新兴技术。这也意味着那个合法的技术提供者S.和公司使用AI.需要不断地评估任何更新l的IST和影响他们的业务楷模

AI法案第2章成立广泛的遵守高风险AI系统的要求他们的提供者。这义务遵守包括:

  • 风险管理系统(第9条),
  • 数据治理和管理培训实践,验证,和测试数据(第10条),
  • 技术文件(第11和18条)如上所述AI ACT的附件IV
  • 记录保存/记录(第12和20条),
  • 透明度和向用户和当局提供信息(第13和22、23条);
  • 人类监督(第14条),
  • 准确性,鲁棒性,和网络安全(第15条),
  • 质量管理系统(第17条),
  • 符合性评估(第19条)并制定包含列出的信息的符合性声明(第48条)AI ACT ANTEX V ACT,导致标签产品欺诈拿着AI系统或者至少是其文件一种CE标记(第49条)
  • 任命欧盟授权代表(适用于欧盟以外的提供商,艺术。25)
  • 文件保留(第50条)
  • 市场后监测(第61页),
  • 事件报告要求(第62条)。

此外,AI法案还将为进口商(第26条),分销商(第27条)甚至高风险AI系统的用户(第29条)而建立义务。

在高风险之前一世系统被放置在市场上,提供者将要需要在新的欧盟数据库中进行注册(第51条)。信息是注册后的BMited详述ANEX VIII给AI法案

被认为的法律技术有限风险AI系统

对于某些AI系统,施加了特定的透明度要求,例如有明显的操纵风险。用户应该意识到它们与机器进行交互。

T.法律技术,这适用于AI系统不是高风险的与自然人互动的.AI系统需要成为以这种方式设计和开发,使自然人被告知他们是与AI系统进行互动,除非这是明显的情况和使用背景(第52(1)AI法案)

很可能大多数公司使用的法律技术解决方案律师,和结束 -用户(寻找法律问题的答案)会归入这一类吗例如,L.Egal Chat Bots,文档自动化工具(基于交互式问卷)和法律T.ech工具自动化决策树然而,AI法案对问题何时何时何时何种问题n ai系统是“显而易见的”。既不是艺术。52(1)AI法案也没有AI法案的重新启动出了详细的需求例如,R.生态70只描述S.底层监管机构的想法。

被认为的法律技术最小的风险AI系统

所有其他AI系统将被视为最小的风险AI系统s。据委员会这是大多数目前在欧盟使用的AI系统启用AI的视频游戏或垃圾邮件过滤器

但在法律技术方面,这只能是在上述区域之外使用的AI系统,而不是与自然人互动,例如,完全自动化的在不需要人为投入的高风险区域之外的法律技术解决方案。那些法律技术解决方案将不会被要求遵守额外的义务

义务的公司律师事务所和法律技术的AI系统的其他用户

专业U.人工智能系统的sers将要由AI法案涵盖。用户手段任何自然或法人,公共机构,机构,或其他身体在其权限下使用AI系统y(第3(4)).这包括公司(如《AI法案》中明确提到的信用机构)以及使用法律技术的律师事务所。

作为已经表示,AI系统的用户如果使用的人工智能系统属于高风险类别,则必须遵守某些要求。《人工智能法案》区分了高风险人工智能系统的用户被考虑作为提供者他们自己(第28条)和m用户(第29条)。

一种用户应该被认为是受义务约束的提供者一种提供者(第16条)在以下任何情况下:

  1. 他们在市场上放置或投入为他们的高风险AI系统名称或商标
  2. 他们调整高风险人工智能系统的预期目的市场或投入使用
  3. 它们对高风险AI系统进行了重大修改

这和律师事务所有关例如,使用白色标签法律技术解决方案高风险的AI系统和市场(修改的或不)在他们的品牌下。

但偶数m用户的法律技术解决方案高风险的AI系统需要遵守某些要求,包括:

  • 鉴于高风险AI系统的预期目的,确保数据相关(第29(3)),
  • 监测高风险人工智能系统的运行,并在确定某些风险时通知供应商(第29(4)条),
  • 保持日志(第29(5))和
  • 包括关于其数据保护影响评估中AI系统的信息(第29(6))。

会员国的责任

会员国需要指定或建立国家监管机构(第59(2))的行为通知权威负责任的符合符合性评估(第30条作为市场监督权(63年艺术。)当局将可以取得数据和文件(第64条)这将是一种赋权掌握采取行动针对可能最终导致产品退出市场的不合规人工智能系统(第65条)

成员S.将能够建立AI监管沙箱促进在他们在市场安置前的有限时间的创新AI系统的开发,测试和验证(第53和54条).这将是一个开发新的法律技术解决方案的机会nm余烬S.需要提供小规模提供商和初创公司的优先权访问(第55条)

会员国也将被要求追求不遵守AI行为的要求和发出最高30.000.000欧元的行政罚款或者,如果罪犯是一种公司,占全球全球全球年度营业额的6%(第71页)。这清楚地表明,委员会希望重点关注这一主题并强制执行A​​I法案V.ogorously。此外,律师事务所计划使用法律技术作为新来源的收入需要照顾潜在的潜在风险 - 否则新的商业模式可以快速导致具有大量手术和商业风险。

欧盟层面的发展

欧洲人工智能委员会(AI董事会)将向欧洲委员会提供咨询意见和援助(第56条)。将由国家超级组成顾客当局和欧洲数据保护主管(艺术。57)。

一种高风险AI系统的新欧盟数据库将会成立(艺术。60)提供者应鼓励吸引不高风险的AI系统的行为守则(第69条)。

从一个成员国的市场撤回不符合规定的产品可以通向胜利Thdrawal上欧盟水平遵循A.保护程序(第66条)和T欧洲数据保护主管可能会对联盟机构,机构和境内施加行政罚款,落入其范围内e ai法案(第72条)。

此外,T.他更新了协调P.L.一个关于人工智能目的是交流, 行为并对准AI政策优先事项和投资穿过欧盟这包括通过资助欧洲数字创新中心来帮助欧洲公司这也是支持欧洲法律技术提供者的开放而有限公司统一计划也没有明确提及法律技术,它细节S.高冲击部门是合适的法律技术解决方案.这包括t.他公共部门需要人工智能系统S.为了如。自动的admin中的翻译,文档审查和分类一世条件以及在司法程序(页S.46.到49.协调计划以及lAW执法、移民和庇护需要AI系统,例如,加速和改进程序(第49页到51协调计划).

立法过程

AI法案是法律草案,由此提出欧盟委员会在下一步,t欧洲议会成员国需要在普通的立法程序中通过委员会的提案。一旦采用,最终ai行为将是一个监管直接适用于欧盟。它将在20中生效TH.发表后的一天官方欧盟杂志它将从两年后申请进入力量(第85条),所以法律技术提供者至少将拥有他们需要两年的时间来准备《人工智能法案》强加给他们的新(最终)要求。


*脚注:

作者是DLA Piper的汉堡办事处的法律技术研究员和(法律)设计促进者。金博宝188转账

更多的一般有关AI法案的信息,请在此概述“隐私问题”博客上的一篇博文由安德鲁戴森,EWAKurowska-tober和heidi或者在这方面IPT德国博客上的博客帖子德语)由法国驾驶和Jan Pohle。

在2021年10月5日的第五届DLA Piper欧洲技术峰会上探索技术前沿及其未来的企业,其中包括关于法律服务中数据分析和技术的小组讨论。金博宝188转账在本次会议中,杰出的行业思想领导人被设定为如何在法律服务买家和服务提供商之间有意义地创造相互价值,具有挑战性的假设和改造问题的过程,并找到更快,更容易更轻松地制作业务的方法,和TH.一世S.panel set to showcase solutions DLA Piper has invested in to do so for the benefit of its clients through the firm’s Law& offering which includes the application of artificial intelligence tools that integrate technology with commercial and legal knowhow.参观金博宝188转账DLA Piper欧洲技术峰会2021年网站获取更多信息并注册您的兴趣。

来自DLA PIPER的AI的进一步见解通过我们可以获得金博宝188转账技术的法律边缘博客我们的Techlaw.播客视频该系列以及其他思想领导渠道均可通过我们的DLA Piper技术部门团队的网页金博宝188转账这里