书面提案禁止人工智能(AI)的几种用途,并对欧洲委员会发表的其他“高风险”AI应用的新监督本周 - 遭到欧洲几个数字权利倡导者的激烈反对。

欧盟委员会的提案禁止AI的四个广泛应用,欧盟委员会提出了一个可能导致滥用的几个漏洞,并将其他漏洞包括一个可以将其他AI申请添加到禁令申请的机制,但它包括几个漏洞。它认为某些类型的AI应用是“高风险” - 它的开发商需要遵守某些限制 - 但其中一些相同的申请由今年早些时候的许多数字权利群体被召集,是“与民主社会不相容“它创建了新的政府机构,但这些机构的职责可能与专门负责总体数据保护的独立机构重叠。

它出现了最令人沮丧的数字权利专家,是107页的文件(不包括必要的附件)只提供了对生物识别监视的瞥了大性限制,如面部识别软件。

“欧盟的提议远远没有达到缓解面部识别系统等技术被滥用的巨大潜力所需的水平,”拉沙·阿卜杜勒·拉希姆说阿姆斯蒂国际大赦科技主任。“根据拟议的禁令,警方仍然能够使用与中央电视台摄像机的非现场面部识别软件来跟踪我们的每一个举措,从未人们同意的社交媒体账户刮擦图像。”

ai禁令

4月21日发布,AI禁令提案是多年工作的产品,返回2018年,欧洲委员会和欧盟的会员国同意草拟AI政策和法规。根据欧盟委员会,该计划不仅仅是对某些AI使用的限制,而且还允许在AI发展中创新和竞争。

“欧洲采用最新技术的全球领导力,抓住了福利和促进人为人心,可持续,安全,包容性和值得信赖的人工智能(AI)的发展取决于欧盟(欧盟)加速的能力,采取行动并对齐AI政策优先事项和投资,“欧盟委员会在其人工智能协调计划中写道.

该提案包括一些核心部分。

提案将禁止,有一些例外,AI广泛用途。其中两个禁止的用途包括使用AI以可能导致该人或其他人造成伤害的方式扭曲一个人的行为;这两个领域的一个侧重于利用AI利用人或团体的“年龄,身体或精神残疾”。

该提案的第三条禁令针对的是使用人工智能创建所谓的社会信用评分,这可能导致不公平待遇,这一担忧介于两者之间随意制度在中国某些地区实施反乌托邦文集系列《黑镜》.

根据提案,使用人工智能评价或分类的“诚信”不允许一个人如果这些评估导致有害的或不利的治疗在“社会环境与上下文无关的最初生成或收集的数据,”或治疗,是“不合理或不相称的社会行为or its gravity.”

该提案的最终人工智能禁令将禁止“为执法目的在公共场所使用‘实时’远程生物识别系统”,这意味着警察不能在公共活动中实时使用面部识别等工具,但有一些例外。

这些例外包括“有针对性地搜索”包括失踪儿童在内的犯罪“特定”潜在受害者,以及防止“对自然人的生命或人身安全或恐怖袭击的特定、实质性和紧迫威胁”。执法部门还可以使用实时面部识别工具来检测,找到、识别或起诉某一严重犯罪的“犯罪者或嫌疑人”。

大赦科技的研究员和顾问马修·马哈茂迪(Matthew Mahmoudi)说,这些例外太宽泛了,因为它们仍然可能导致针对某些社区的许多虐待行为。Mahmoudi说,例如,允许对“怀疑非法进入或居住在欧盟成员国的人”使用实时面部识别的例外,无疑将用于对付移民和难民。

除了该提案的例外之外,与当今现实世界发生的情况相比,这些禁令本身显得相当有限。

例如,该提案并未禁止执法部门进行事后面部识别,执法人员可以在公共活动结束后收集视频图像,并在自己的电台舒适地对该视频运行面部识别软件。尽管欧盟委员会的建议当然适用于欧洲,但这种做法在美国国内已经很猖獗,警察部门已经接受了Clearview AI的产品,Clearview AI是一家面部识别公司,其起源故事包括与极右极端分子合作.

问题严重。尚未覆盖Buzzfeed今年调查:

“根据BuzzFeed News的报道和审查数据,来自全国近2000家公共机构的7000多人使用Clearview AI搜索了数百万美国人的脸,寻找包括黑人生命问题抗议者、国会暴动分子、小罪犯、,以及他们自己的朋友和家人。”

找到Buzzfeed去年澳大利亚的类似警察活动在同一天,欧盟委员会发布了其提案,必威平台APP必威官方登录备用Malwarebytes实验室报道了一个故事1月6日,美国联邦调查局(FBI)在国会大厦使用面部识别识别一名暴徒。

这类活动在世界各地蓬勃发展。数字版权专家认为,现在是世界消灭它的最佳时机。

但提案并不一定不受限制。事实上,该提案仅基于其认为“高风险”的其他类型的活动创造了新的限制。

高风险人工智能与监督

提案的下一部分对“高风险”人工智能应用进行了限制。人工智能的这些使用不会被彻底禁止,而是受到一定的监督和遵守,其中大部分将由人工智能的开发者执行。

根据该提案,“高风险”AI将属于以下八大广泛类别:

  • 自然人的生物识别和分类
  • 关键基础设施的管理和运营
  • 教育和职业培训
  • 就业、工人管理和自主创业的途径
  • 获得和享受基本的私人服务和公共服务及福利
  • 执法
  • 迁移,庇护和边境管制管理
  • 司法和民主进程

该提案澄清了在每个给定类别中哪些类型的人工智能应用将被视为高风险。例如,并不是教育和职业培训中使用的每一种人工智能都被认为是高风险的,但那些符合条件的人工智能将是“用于确定自然人进入教育和职业培训机构的机会或分配的系统。”同样,用于招聘的人工智能系统,特别是用于招聘空缺职位、筛选申请和评估候选人的人工智能系统,将被归类为就业、工人管理和自营职业人工智能的更广泛类别下的高风险系统。

在这方面,该提案再次激怒了隐私专家。

今年1月,共有61个人权团体向欧洲委员会发送了一个公开信,要求AI的某些应用被视为不应跨越的“红线”。包括Access Now、Electronic Privacy Information Center和Privacy International在内的组织致函“提请注意与民主社会不相容的特定(但非详尽的)使用示例,AI立法必须禁止或限制这些示例。”

在欧盟委员会(European Commission)的提案中,被称为过于危险而不能允许的5个领域中,至少有3个被认为是“高风险”领域,包括将人工智能用于移民管理、刑事司法和预预测警务。

这个问题,,根据小组访问现在是,提案目前对高风险AI的限制将对实际保护受这些高风险系统影响的人来说很少。

根据该提议,这些高风险人工智能系统的开发人员需要遵守一些自我强加的规则。他们需要建立并实施一个识别可预见风险的“风险管理系统”。他们需要起草并更新他们的“技术文档”。他们需要设计自己的系统来实现自动记录保存,确保透明度,并允许人工监督。

根据欧洲数字权利(EDRI)协会,这些规则对工具本身的开发人员带来了太多负担。

该组织写道:“提案中的大多数要求天真地依赖人工智能开发人员实施复杂社会问题的技术解决方案,这些问题可能由公司自己进行自我评估。”通过这种方式,该提案使一个有利可图的非正义人工智能市场能够被用于监视和歧视,并将责任归咎于技术开发人员,而不是将系统投入使用的机构或公司。”

最后,该提案将把一些监督和监管职责纳入政府的手,包括创建一个“欧盟数据库”,其中包含有关高风险AI系统的信息,创建欧洲人工智能委员会和指定每个欧盟成员国的“国家监管机构”。

这也提出了推动,因为监管机构可以与欧洲数据保护委员会的责任与每个欧盟成员国已经指定的数据保护当局重叠,这是一般数据保护监管所实施的变更。

接下来是什么?

尽管人工智能技术遥遥领先,但欧盟委员会的提案可能需要数年时间才能实施,因为它仍需得到欧盟理事会和欧洲议会的批准才能成为法律。

在此过程中,肯定会有许多更改,更新和改进。希望他们是越来越好的。