欧盟人工智能法案已形成通用模型规则初稿

随着人工智能的快速发展,

对于技术和全力投入该技术的公司来说。欧盟率先批准了针对人工智能监管的全面立法。现在,它已发布

专门针对通用人工智能(GPAI)模型的实践准则初稿

Meta、谷歌、OpenAI、苹果等公司需要遵守

该草案定于明年 5 月完成,制定了风险管理指南,并为企业提供了保持合规和避免严厉处罚的路线图。虽然欧盟的《人工智能法案》从技术上来说已于 8 月 1 日生效,但它将监管 GPAI 的细节留到了以后。

该草案是第一次真正尝试定义对这些先进模型的期望,让利益相关者有机会在指南生效之前提交反馈并对其进行微调。

那么,通用人工智能(GPAI)模型到底是什么?它们是一种能够处理多种任务的人工智能,构成了许多人工智能系统的支柱。这些模型经过大量数据的训练,只需最少的调整即可适应不同的任务。目前预计将受到欧盟指导方针约束的公司(尽管名单可能会扩大)包括:

  • OpenAI,ChatGPT 的创造者
  • 谷歌及其 Gemini 模型
  • Meta,其 Llama 模型为 Meta AI 提供支持,Meta AI 是其应用程序中的助手
  • 苹果
  • 微软
  • 人择
  • 米斯特拉尔

最终文件将对指导未来可信、安全的通用人工智能模型的开发和部署发挥至关重要的作用。

?欧盟委员会,2024 年 11 月

该文件涉及 GPAI 制定者的几个关键领域:透明度、版权合规性、风险评估以及技术和治理相关的风险管理。这份 36 页的草案已经包含了详细的指导方针,并且在最终确定之前可能会进一步扩展,但有几个部分很引人注目。

透明度是这里的一个重点。 《人工智能法案》要求人工智能公司披露用于训练其模型的网络爬虫的详细信息?甚至引发了一个热门话题

风险评估也占据中心地位,旨在解决对网络安全、潜在歧视以及人工智能系统失控可能性的担忧。

人工智能开发人员还有望实施安全保障框架(SSF),这将有助于概述他们的风险管理策略,并将他们的缓解措施与所涉及的系统性风险水平相匹配。

该指南扩展到技术方面,例如保护模型数据、建立可靠的故障安全访问控制以及不断重新评估这些措施的有效性。

最后,治理部分推动公司内部问责,强调持续风险评估的必要性以及必要时外部专家参与的必要性。

与其他欧盟技术法规类似,例如

,《人工智能法案》附带严厉的处罚。公司面临高达 3500 万欧元(约合 3680 万美元)或全球年利润 7% 的罚款?以较高者为准。

利益相关者必须在 11 月 28 日之前通过 Futurium 平台提供对此草案的反馈。最终确定的规则预计于 2025 年 5 月 1 日生效。

这些规定可能不适合大型科技公司和一些公司?

拒绝签署欧盟人工智能法案。与此同时,OpenAI、谷歌和微软等科技巨头也支持了该协议。也就是说,我相信这些法律对我们用户来说至关重要。人工智能发展?特别是在培训和未来应用方面?肯定需要更密切的监测。