译文:
www.kdnuggets.com/2022/06/european-ai-act-simplified-breakdown.html
Sasun Bughdaryan via Unsplash
2020 年 2 月 19 日,发布了一份关于 AI 的白皮书——“欧洲卓越与信任的方法”。随后,在 2021 年 4 月 21 日,欧洲委员会发布了关于 AI 使用法案的立法。
1. 谷歌网络安全证书 - 快速进入网络安全职业生涯。
2. 谷歌数据分析专业证书 - 提升你的数据分析技能
3. 谷歌 IT 支持专业证书 - 支持你的组织的 IT 需求
根据欧盟的说法,一些 AI 系统非常复杂、不可预测且非常不透明。他们的目标是确保这些不同类型的 AI 系统符合基本权利并提供信任,同时减少市场碎片化。
《法律》的主要目标是:
-
欧洲市场上的 AI 系统是安全的。
-
这些 AI 系统尊重欧盟的价值观和公民权利。
-
这些 AI 系统确保法律确定性,以帮助促进 AI 的投资和创新。
-
这些 AI 系统值得信赖,以确保市场不会失败。
-
它改进了现有的安全性和权利要求立法。
然而,这项法律可能不仅适用于欧盟;其他国家已经开始探索提供更透明 AI 系统的新方法。2021 年 9 月,巴西通过了一项创建法律框架的法案。
该法律将这些 AI 系统分类为四个风险领域:不可接受风险、高风险、有限风险和最低或无风险。
这允许使用低风险或无风险的 AI 系统,没有限制。虽然没有任何限制,但 AI 系统的提供者必须遵守自愿的行为规范。委员会预测,大多数 AI 系统将归入“低风险或无风险”类别。
这些类型的 AI 系统包括垃圾邮件过滤。
这些 AI 系统也被允许,但需提供更深入的信息和更高的透明度,如技术文档。他们也可以选择遵守自愿的行为规范。
这些类型的 AI 系统包括聊天机器人。
这些是最具风险的人工智能系统,尽管允许使用,但它们必须符合要求和事前/事后合规评估。在系统投入市场前需进行合规评估。
这些人工智能系统将会是:
-
人工智能系统被用作产品安全组件,例如医疗设备
-
独立的高风险人工智能系统,例如执法系统
这些类型的人工智能系统完全禁止,因为它们已知对人们的安全和权利构成‘不可接受的风险’。
例如对儿童或精神残疾人士的剥削。这可能通过包含集成语音助手的玩具娃娃,促使用户进行危险行为。
高风险人工智能系统由于其要求而面临最大的风险。这些要求包括
数据和数据治理 - 确保这些人工智能系统使用高质量的相关和代表性数据
文档和记录保存 - 创建文档和记录功能以帮助追踪和审计,同时确保人工智能系统的合规性。
透明度和用户信息提供 - 向用户提供信息,例如如何使用系统以确保透明度。
人工监督 - 在人工智能系统的构建阶段以及实施阶段,人工干预是至关重要的。
强健、准确、网络安全 - 这些元素对任何人工智能系统都至关重要,以保护企业和用户。
从公司到这些人工智能系统的制造商再到分销商,都可能面临严重的罚款。这些罚款分为三个级别,具体取决于违规的严重性。
这是《人工智能法》中规定的最低罚款级别。这可能是由于向当局提供了不完整或虚假的信息。罚款金额可能高达1000 万欧元或公司全球年营业额的 2%。
这是下一个潜在的罚款,可能是由于人工智能系统要求的违反。例如,缺乏提供透明度的技术文档。罚款金额可能高达 2000 万欧元或公司全球年营业额的 4%。
这是最高的罚款金额,可能由于使用了禁止的人工智能系统或系统质量未达到标准。罚款金额可能高达 3000 万欧元或公司全球年营业额的 6%。
尽管还有更多内容需要审查,一切尚未确定,但《人工智能法案》已经引起了很多关注。对企业、制造商和分销商,无论是在欧盟内部还是外部,都是如此。《人工智能法案》的目的是确保欧盟在人工智能领域的卓越,提供正确的条件以促进人工智能的发展,并确保人工智能系统对人类有益。
Nisha Arya 是一名数据科学家和自由职业技术写作人员。她特别关注提供数据科学职业建议或教程以及围绕数据科学的理论知识。她还希望探索人工智能如何有助于人类寿命的不同方式。她是一位热衷于学习的人,寻求扩展自己的技术知识和写作技能,同时帮助指导他人。