歐盟人工智慧法案已形成通用模型規則初稿

隨著人工智慧的快速發展,

對於技術和全力投入該技術的公司來說。歐盟率先批准了針對人工智慧監管的全面立法。現在,它已發布

專門針對通用人工智慧(GPAI)模型的實踐準則初稿

Meta、Google、OpenAI、蘋果等公司都需要遵守

該草案定於明年 5 月完成,制定了風險管理指南,並為企業提供了保持合規和避免嚴厲處罰的路線圖。雖然歐盟的《人工智慧法案》從技術上來說已於 8 月 1 日生效,但它將監管 GPAI 的細節留到了以後。

該草案是第一次真正嘗試定義對這些先進模型的期望,讓利害關係人有機會在指南生效之前提交回饋並對其進行微調。

那麼,通用人工智慧(GPAI)模型到底是什麼?它們是一種能夠處理多種任務的人工智慧,構成了許多人工智慧系統的支柱。這些模型經過大量的資料訓練,只需最少的調整即可適應不同的任務。目前預計將受到歐盟指導方針約束的公司(儘管名單可能會擴大)包括:

  • OpenAI,ChatGPT 的創造者
  • 谷歌及其 Gemini 模型
  • Meta,其 Llama 模型為 Meta AI 提供支持,Meta AI 是其應用程式中的助手
  • 蘋果
  • 微軟
  • 人擇
  • 米斯特拉爾

最終文件將對指導未來可信、安全的通用人工智慧模型的開發和部署發揮至關重要的作用。

?歐盟委員會,2024 年 11 月

該文件涉及 GPAI 制定者的幾個關鍵領域:透明度、版權合規性、風險評估以及技術和治理相關的風險管理。這份 36 頁的草案已經包含了詳細的指導方針,並且在最終確定之前可能會進一步擴展,但有幾個部分很引人注目。

透明度是這裡的一個重點。 《人工智慧法案》要求人工智慧公司揭露用於訓練其模型的網路爬蟲的詳細資訊?甚至引發了一個熱門話題

風險評估也佔據中心地位,旨在解決對網路安全、潛在歧視以及人工智慧系統失控可能性的擔憂。

人工智慧開發人員還有望實施安全保障框架(SSF),這將有助於概述他們的風險管理策略,並將他們的緩解措施與所涉及的系統性風險等級相匹配。

該指南擴展到技術方面,例如保護模型資料、建立可靠的故障安全存取控制以及不斷重新評估這些措施的有效性。

最後,治理部分推動公司內部問責,強調持續風險評估的必要性以及必要時外部專家參與的必要性。

與其他歐盟技術法規類似,例如

,《人工智慧法案》附帶嚴厲的處罰。公司面臨高達 3,500 萬歐元(約 3,680 萬美元)或全球年利潤 7% 的罰款?以較高者為準。

利害關係人必須在 11 月 28 日之前透過 Futurium 平台提供對此草案的回饋。最終確定的規則預計於 2025 年 5 月 1 日生效。

這些規定可能不適合大型科技公司和一些公司?

拒絕簽署歐盟人工智慧法案。同時,OpenAI、Google和微軟等科技巨頭也支持了這項協議。也就是說,我相信這些法律對我們用戶來說至關重要。人工智慧發展?特別是在培訓和未來應用方面?肯定需要更密切的監測。