人工智能技术可能会发现在隐私权利,义务和制裁了相当的障碍,欧盟通用数据保护条例规定。

什么是人工智能技术?

自定义维基百科就是它

人工智能(AI)是机器展示的智能。在计算机科学中,一个理想的“智能”机器是一个灵活的理性的代理,它感知它的环境,并采取行动,使它的成功机会最大化在某些目标。在口语中,“人工智能”一词是指机器模仿人类与其他人类大脑关联的“认知”功能,比如“学习”和“解决问题”。

因此,人工智能的主要特征是

  • 大量的信息的收集,也来自周围的环境和
  • 自主决策/行动的能力,目的是使成功的机会最大化。

人工智能的完美例子是一辆自动驾驶的汽车,它需要根据街道上发生的任何事情进行自动决策。对当前围绕人工智能的担忧(和偏见)的确认是一个新的问题研究来自德国联邦公路研究所,该研究所发现,特斯拉S型汽车的自动驾驶功能构成了一个“相当大的交通危险”。这一发现不出所料地遭到了特斯拉首席执行官埃隆·马斯克的高度批评推特这些报道是“这并不是基于科学并重复了一遍自动驾驶仪比手动驾驶汽车更安全。

但当涉及到可能会影响个人的人工智能决策时,随着欧盟一般数据保护条例的实施,新的隐私相关问题出现了。

反对自动决策的隐私权

欧盟隐私法规的规定,个人

有权不受仅仅基于自动化处理的决策所左右,包括分析,产生法律效力关于他或她或类似的显著影响他或她”。

例外这样的规则适用时的自动决策或者由法律规定,如防欺诈系统的情况下,还是有必要订立合同或者是基于个人的事先同意。但是,在后两种情况下,个人将仍然有获得人工干预来表达自己的观点和较量也就是俗称的决定权接收自动化决策的理由的权利

最常见的例子是,当因为抵押或招聘程序被调低,根据系统的应用个别不符合一些参数。然而,主要的问题出现时,AI变得如此复杂,它的决定是基于这样一个大量数据的实际上是不可能给出具体的决定的理由

该解决方案可能是人工智能其决定可能会影响到个人的方式应,这将是可以跟踪决策的推理来构造。不过,这也要看理由是什么水平就足够了满足载于欧盟的隐私法规的标准。是不是足够地说,抵押贷款申请不符合信用参数?否则将被要求确定具体的参数,如果仅仅是因为它是有联系的其他一些参数的参数已经成为相关?

由AI收集的所有数据处理合法?

另外一个隐私问题是,人工智能系统所使用的有关个人的所有信息,是否都是在该个人同意的情况下获得的,或者是基于不同的法律依据,并用于最初收集的目的。

事实上,人工智能的定义是基于处理来自不同来源的大量数据。个人可能会反对对它们作出的决定,也因为它们是基于非法处理的数据。

在错误的决策发生什么情况呢?

在人工智能的复杂性,预计在未来几年内升级。而这种复杂性可能使更难以确定时,网络攻击已经发生,因此数据泄露通知义务被触发。这是一个有关情况,因为欧盟通用数据保护条例引入了通知未经授权的访问个人数据的隐私主管机关和其数据受到影响的个人的义务。

我们最近看到了涉及该被认可的英国电信运营商谈话谈话的情况下信息专员与£400,000不罚款已经阻止网络攻击而导致获得超过15万客户的数据。但是,会发生什么事情,如果谈话谈话无法确定是否发生网络攻击,所有的突发其系统启动以“异常“决策?考虑到欧盟隐私法规可能提供的巨额罚款,这是一个相关的问题。

而物联网等智能技术的共同问题,以及人工智能的共同问题,都与识别对故障或数据泄露负有责任的实体的困难有关。

隐私被设计为主体的“”对负债

我已经在有关提到的东西的技术网络。随着问责制的地方与被调查的实体数据保护法律已经履行的举证责任的原则,对任何企业的主要防御的隐私通过设计方法实现。的能力已经证明材料证明采取一切由数据保护法律规定可在有LED主要由快速的技术创新和网络犯罪的增长相当不确定性的环境中的宝贵工具的措施。

@GiulioCoraggio