仲裁动态
位置: 主页 > 仲裁动态
全球首部:欧盟《人工智能法案》正式生效(附全文)
发布时间:2024-08-08 16:24
  |  
重庆仲裁委员会  | 浏览人数:

作为全球第一部关于人工智能的综合性法律,欧盟《人工智能法案》在今天,即2024年8月1日正式生效。为此,荷兰数据保护局发布了合规攻略指南,以下为相关指南内容

微信图片_20240808100516.jpg

《人工智能法案》在2024年8月1日正式生效,法案适用于整个欧盟,包括荷兰。在不久的将来,该法对人工智能(AI)开发者和用户的各种要求将逐步适用,第一个要求将从 2025 年 2 月开始适用。

根据法案,某些形式的人工智能将被禁止,使用人工智能的组织内部必须对此有足够的了解,因此,人工智能的开发者和用户最好现在就开始为这项新法律做准备。

《人工智能法案》是全球第一部关于人工智能的综合性法律。人工智能法规规定了公司、政府和其他组织负责任地开发和使用人工智能的规则。

一、为什么有这个法律?

人工智能法规的目的是确保每个人都可以相信人工智能系统安全运行并且基本权利受到保护。尽管有许多系统风险很小,而且人工智能有各种各样的好处,但人工智能也有其另一面。

现行法律,例如《 通用数据保护条例》(GDPR) 和《 通用数据保护条例》已经提供保护。例如,如果人工智能系统用于处理个人数据。但这不足以解决与人工智能相关的所有风险。例如,不负责任地使用人工智能可能会导致歧视、对我们自由的限制以及对人们的欺骗和剥削。

人工智能法规有助于确保人工智能系统的开发人员解决风险并对其进行监控。 

二、《人工智能法案》监管什么? 

《人工智能法案》根据风险组对人工智能系统进行分类。公民和整个社会面临的风险越高,规则就越严格。例如,法律规定的要点是: 

1.禁止带来不可接受风险的应用程序;

2.构成高风险的应用程序须遵守更严格的规则。例如,用于招聘和选拔或执法的人工智能系统。例如,组织必须记录系统活动,建立适当的数据管理并确保可以进行人工监督。他们还必须能够证明他们履行了这些义务。人工智能法规包含一系列  必须满足这些和其他要求的高风险系统。风险较低的应用程序必须遵守不同的透明度规则。例如,生成人工内容的系统必须向公民明确标记这一点。

 3.任命的监管者可以强制遵守法规,迫使组织从市场上撤回产品并处以罚款。

如果您的组织正在开发或使用人工智能系统,您有责任检查该系统属于哪个类别。在这些义务适用于高风险人工智能系统之前,将制定指南来帮助组织评估哪些系统属于哪个风险组。

三、《人工智能法案》规则适用于谁? 

人工智能监管既针对提供人工智能的组织,也针对使用人工智能的组织,从政府和医疗机构到中小企业。

例如,提供商必须确保他们开发的系统在投放市场并投入使用之前满足要求。有时他们必须继续监控是否出现风险,例如为了保护基本权利。如果系统出现问题,请采取行动。提供商还必须确保高风险人工智能系统足够透明,以便得到适当使用。

例如,组织有责任根据提供商提供的使用说明来使用高风险的人工智能系统。用户组织还必须确保这些系统受到人工监督,使用相关且具有足够代表性的输入数据,并向提供商和主管报告事件。在某些情况下,他们还必须在欧洲数据库中注册该系统的使用情况。 

此外,《人工智能法案》规定,所有接触人工智能系统的人都有权:向监管机构提出投诉;在某些情况下,当根据高风险人工智能系统的输出做出决策时,会得到解释。

四、通用人工智能模型提供商  

规则也适用于“通用人工智能模型”的提供商,这些模型也被称为“通用人工智能” 。这涉及构成其他应用程序基础的模型,例如人工智能聊天机器人存在的语言模型。除其他外,这些模型的开发人员有义务准备有关其产品的技术文档,使系统“可解释”,并且他们必须制定保护版权的政策。执法工作将主要由欧洲人工智能办公室在欧洲层面进行。 

五、盘点风险并采取行动

对于人工智能的开发者和用户来说,快速盘点他们提供或使用的人工智能系统以及属于哪个风险组非常重要:它们是即将被禁止的人工智能系统、具有高风险的系统还是具有高风险的系统。风险有限?那么最重要的是采取行动:

禁止人工智能。开发人员必须将这些系统撤出市场,使用它们的组织也必须停止这样做。有关禁止人工智能的规定已于 2025 年 2 月起生效。拥有这些系统的组织也很可能已经违反了法律,例如平等待遇、隐私或劳动立法领域的立法。根据《人工智能法规》,从 2025 年 8 月起,开发或部署违禁人工智能的组织必须面临巨额罚款。美联社将在不久的将来进一步澄清哪些系统属于禁令范围,哪些系统不属于该禁令。

高风险人工智能。这些系统必须满足风险管理、所用数据质量、技术文档和注册、透明度和人工监督等要求。此外,这些系统必须有质量标志。AI系统的用户已经可以向提供商询问他们准备在多大程度上确保AI系统满足要求。有时,附加要求适用于政府或执行公共任务的机构,例如进行“基本权利影响评估”。如果无法满足这些要求,则不允许开发人员提供这些系统,也不允许组织使用它们。

风险有限的人工智能。透明度义务适用于旨在联系人们或生成内容的系统,例如深度伪造。如果提供或使用这些系统,则必须告知人们。开发人员必须以一种可行的方式设计他们的系统,而部署系统的组织必须真正通知人们。人工智能系统的用户最好向提供商询问其状态。

 六、AI法规何时生效?

《人工智能条例》将逐步生效。第一条规则将于 2025 年 2 月 2 日在荷兰实施。整部法律将于 2027 年 8 月 2 日生效。您可以在下面了解此过程中最重要的步骤。 

2025 年 2 月。具有不可接受风险的人工智能应用程序将被禁止。组织必须确保员工和代表其使用人工智能系统的个人具有足够的人工智能素养。 

2025 年 8 月。必须了解荷兰人工智能法规合规监管机构。指定的监管人员有权采取措施并处以罚款。针对通用人工智能模型提供商的规则生效。这些模型也被称为“通用人工智能”。 

2026 年 8 月。开始监测高风险人工智能的义务(在条例附件三中定义)。开始对某些人工智能系统的透明度义务进行监督。人们需要知道他们正在处理人工智能系统或人工智能生成的内容。荷兰“监管沙箱”已开始就人工智能监管规则的复杂问题向人工智能系统提供商提供建议。

2027 年 8 月。启动对现有监管产品中高风险人工智能的监管(附件一人工智能监管)。人工智能法规已全面生效。 

2030 年 8 月。政府组织中现有人工智能的延长过渡期结束。

七、更新AI知识

从 2025 年 2 月开始,部署人工智能系统的组织还必须具备足够的人工智能内部知识。每个员工的知识水平必须与人工智能系统的使用环境以及系统(群体)如何影响人们相匹配。

例如,人工智能知识义务意味着人力资源员工必须了解人工智能系统可能包含偏见或忽略重要信息,从而导致申请人被错误或不被推荐。市政当局使用人工智能系统验证公民身份的柜台员工必须意识到,这些系统通常并不适合每个人。这个人绝对不能盲目跟随这些类型的人工智能系统的结果。 


欧盟《人工智能法案》全文下载网址:

https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689


×
我是仲裁员
我是当事人
我是律师
智慧仲裁
收起