人工智能正在快速成长中 - 它不只是一个家喻户晓的词,但许多家庭的重要组成部分,它也是企业越来越重要。

我们需要什么样的AI短期看?如何能企业利用潜在的AI-限制的法律问题?是AI的新的电力?

以下是我们对AI和物联网的未来前三名的预测。

1.在科幻小说中想象的AI正在成为现实

我是机器人一本有影响力的故事集和散文是作者写的吗艾萨克·阿西莫夫1940年和1950年。这些作品的基线之间,为2004年威尔·史密斯的同名电影的灵感,是一个世界里,机器人是日常生活的一部分。

今天,我们是不是远远没有达到那个世界。人工智能个人助理系统与我们始终在我们的智能手机和控制家里的不断越来越多的设备。而这个动作也发生在工业部门。据全球国际会议,它在2018年初接受调查的3000多人的公司54%都已经在优先聊天机器人,机器学习和深度学习技术投资。但是,更重要的是,这些研究结果表明AI的是渗透滚雪球:受访者超过66%的人表示AI的投资将是2019年年底的优先事项。

AI的潜力是巨大的:例如,Twitter最近宣布,它已标记与恐怖主义有关账户下来花了近300000的95%在过去的六个月里通过算法而不是人类,使其消除75%的可疑账户之前他们的第一个内容发布。

政府明白AI为他们国家的相关性。例如,法国已推出AI策略,提供1.5十亿€投资。卫生和人类服务的美国能源部最近使用AI处理成千上万的监管提案的公众意见跑了试点。英国的部门工作和养老金已经部署了AI系统来处理收到的信函,以及经济的意大利和财政部已实施的AI驱动的服务支持,以应付市民的电话。

我们的个人经历也证实了这一趋势。我们为客户在几个AI项目中出现的法律问题提供咨询。这些问题包括使用面部识别识别客户和潜在的欺诈者,使用机器学习和聊天机器人技术在合同和客户支持过程中自动处理与客户的关系,以及作为工业4.0项目和智能家居、联网汽车和远程医疗项目一部分的物联网系统。

我们的经验表明,虽然该公司正在试图利用4.0和AI技术,许多人仍然在意义上的“3.0方法”,他们往往低估这种技术的影响和不理解,他们将:

  • 导致公司的业务模式的变化是推出新的法律风险(例如,在需要新的法律能力和在公司的管理和法律部门文化转变的潜在责任的条款)
  • 需要如何最大限度地减少通过保护和利用这日益成为该公司的资产数据的风险和利益最大化,例如更深入的评估,并通过仔细审查供应商,并与他们谈判协议
  • 需要从第三方供应商的支持,已经与物联网技术,成本和创建你自己的技术可以是过度的努力,经历了互联网,并提供比那些通过与外部供应商的合作实现的结果更低。

正如微软(Microsoft)首席执行官萨蒂亚•纳德拉(Satya Nadella)在2015年预测的那样,“所有业务都将成为软件业务”——这无疑是我们对2019年的预测之一。

2. AI法规及其执行情况将成为当务之急

1942年,艾萨克·阿西莫夫发表了他的“机器人的三大定律” - 引进规则的概念来管理它与人类的关系人工智能的行为。

那些参与人工智能开发的人越来越意识到,有必要制定此类规则——对人工智能进行迅速、彻底的监管。在一场讨论人工智能系统进化的精彩而“可怕”的采访中,埃隆·马斯克(Elon Musk)告诉乔·罗根(Joe Rogan),政府急需对人工智能进行监管。“我通常不是监管和监督的倡导者,”他说,但在这种情况下,公众会面临非常严重的危险。

His view: “Normally the way regulations are set up is when a bunch of bad things happen, there’s a public outcry, and after many years a regulatory agency is set up to regulate that industry“ but “AI is the rare case where I think we need to be proactive in regulation instead of reactive. Because I think by the time we are reactive in AI regulation, it’ll be too late, [—] AI is a fundamental risk to the existence of human civilization.“

近日,监管部门已开始尝试解决这个必要性。举措,如最近草案信得过AI,欧洲的伦理宪章由欧盟委员会发布司法系统及其环境中使用人工智能的伦理准则,和2017年的决议,欧洲议会的含公民向欧洲委员会提出建议对机器人的法律规则是相关的。事实上,它们提供了实现适当的管理解决方案,包括,例如,强制保险的自营和代理的使用提出了一些建议。

国际合作是必要的规范AI。这是遵循的路径,其在2018年4月签署的欧盟成员国对AI合作的宣言,其中他们同意由AI提出的最关键的问题共同合作,旨在与社会,经济,伦理和法律问题,共同应对。

然而,目前的尝试调节AI显得更加的道德行为,而不是实际的法规基本原则的标识,和他们没有任何约束力和执法行动。

这是很难说是否有这样的差距将在2019年期间被填充,但毫无疑问的是,如果监管部门不采取向约束力的规章坚定此举可以限制AI和物联网的潜在滥用,不妨碍他们的成长,我们的风险它们的发展:

  • 将像欧盟国家受到阻碍其中例如GDPR已经大大制约了技术能够根据个人资料进行自动决策的剥削和
  • 会导致显著的负面后果,像损害赔偿责任的分配问题潜在的风险,如果产品责任规则没有“升级”到的环境中,AI不只是遵循相关制造商的说明,但进行独立思考,即使它的制造商可能会发现很难解释。

此外,它是不可能通过“传统”的技术和措施,以控制AI。即使警察当局将需要使用AI来控制它和执行反对的措施。

3.道德规则将成为必不可少的AI

阿西莫夫的机器人第一定律是:“机器人可能不伤害人类或通过不采取行动,允许人来的危害,“。但是,当涉及到今天的高度复杂的AI技术,该规则可能功亏一篑。正如强调电影版我是机器人,分析和伦理推理之间的潜在间隙可以成为一个显著的问题。

理性决策取决于事件的可能结果,但在实践中,逻辑的选择不一定符合社会所接受的位置:.ethics需求驱动决策的人工智能技术。

最常提到的理论的例子是自驾车必须醒目行人或突然转向,以避免行人,但创建人受伤的风险较高的可能性之间做出选择的一个。另一个相关的例子是,公司投资在AI的在行业里它可能是有利可图的使用的决定,但如果技术进入失控可能给人类相当大的风险。

应谨慎和考虑实施人工智能,以避免滥用和意外后果。我们已经看到企业在采取自我监管措施。这样的公司微软已经确定了六个道德价值观- 公平性,可靠性和安全性,保密性和安全性,包容性,透明度和问责制 - 引导交叉学科的发展和使用人工智能。此外,大型IT企业都在建立伦理委员会。

但是,只有各国政府必须确保AI的经济和社会影响所有社会的统一管理的能力 - 这种独特的作用,可以保证AI的经济和社会影响进行适当管理,并且可以设置为人工智能的伦理和法律框架要在我们的社区安全使用。

我们的前3名最好的人工智能的未来实践

监管机构将需要了解,按照政府AI道德规则不能留给企业自行决定。相反,企业必须:

  • 适用法律有义务遵守法律法规
  • 需要证明他们是在合规性和
  • 对这种遵守行为负责,并在违反时面对可能受到制裁的后果。

从艾萨克·阿西莫夫一句名言是:“生命中最悲伤的方面,现在是,科学知识合比合社会智慧得更快。”

AI的使用只会在2019年增长,我们预计,监管机构,以及警察和司法当局,需要建立一个适当的环境,以确保这些技术的适当采用。

同时,每个企业正越来越多地希望依靠人工智能。诚如一句名言概括安德鲁·吴:“人工智能是新电力”。如电力,AI会导致新的,通用的工业革命。它正在迅速成为基准,每个公司都将依靠一件事。而那些不会改变公司不太可能生存。

欲了解更多关于人工智能与触到它的法律和监管问题,一起去伦敦的欧华律师事务所的欧洲技术峰会于10月15日更多详情,可上金博宝188转账dlapipertechsummit.com。