違反歐盟人工智慧法案的代價可能非常高昂。根據違規行為的嚴重程度,罰款最高可達全球年營業額的7%或3500萬歐元,以較高者為準。該法案於2024年8月生效,並將於2026年8月全面實施,其中一些關鍵義務已陸續生效。

對許多組織而言,2026年標誌著人工智慧監管從意識層面轉向問責層面。曾經需要監控的領域,如今已成為董事會、監管機構和客戶期望組織理解並展現的能力。

挑戰不僅在於理解法規條文,更在於理解其在實務上的意義。哪些組織會受到影響? 「高風險人工智慧」是否適用於您的系統?監管機構希望看到哪些證據?以及如何將法律要求轉化為結構化且站得住腳的方案?

歐盟人工智慧法案旨在做些什麼

歐盟《人工智慧法案》引入了一種基於風險的人工智慧監管方法。人工智慧系統對人們的權利、安全或機會的潛在影響越大,對其施加的義務就越嚴格。該法案的核心在於將人工智慧的使用劃分為不同的類別——從禁止的行為到高風險系統,再到具有透明度要求的低風險用例。此外,該法案還對通用人工智慧模型引入了相應的義務,這反映了這些技術目前在各行各業的廣泛應用。

實際上,該法規實現了以下四點:

  • 禁止部分人工智慧實踐,
  • 對高風險系統提出嚴格要求,
  • 針對某些用途引入透明度義務,
  • 並為通用人工智慧模型製定規則。

這種結構意味著該法案的適用範圍遠遠超出技術提供者。它影響在歐盟境內開發、部署、整合、採購或依賴人工智慧系統的組織——而這些組織往往最初並未意識到自己受到監管。

為什麼許多組織已經在範圍內

人們普遍認為歐盟人工智慧法案主要影響大型科技公司。但實際上,風險往往來自於人工智慧的使用方式,而非其開發者。人工智慧如今已融入日常業務流程,出現在招聘工具、信貸決策、醫療支援系統、客戶互動和內部工作流程等各個方面。在許多情況下,企業已經在以符合法案規定的方式使用人工智慧,只是尚未正式承認而已。

這在招聘和勞動力管理、包括信貸或保險在內的金融決策、醫療保健和診斷、教育和評估、公共服務或基礎設施以及依賴生成式人工智慧的面向客戶的工具等領域尤為重要。

重新審視這個問題的一個有效方法是問:人工智慧輔助決策已經在哪些方面對個人結果產生影響?通常情況下,監管責任就是從這裡開始的。

為什麼2026年很重要

《人工智慧法案》正分階段實施,但到2026年8月,大部分條款將全面生效。屆時,各組織應清楚了解自身的人工智慧現況及其治理方式。這並不意味著每個流程都必須完美無缺,但確實意味著各組織應能證明:

  • 對正在使用的人工智慧系統的可見性
  • 採用一致的分類方法,
  • 明確問責制,
  • 有據可查的控制措施,
  • 並具備在需要時提供證據的能力。

等到執法力度顯現才採取行動是一種冒險的做法。等到人們提出問題時,他們期望已經有了既定的答案。

「高風險人工智慧」在實踐中的意義

對許多組織而言,不確定性由此開始。人工智慧系統是否被視為高風險,與其說是技術本身的問題,不如說是技術的應用方式的問題。當系統影響到可能對人們生活產生實質影響的決策時——例如就業、財務取得、醫療保健、教育、安全或法律地位——這些系統就屬於高風險範疇。

在實務中,人工智慧通常應用於篩選或排名求職者、評估信用度或保險風險、輔助臨床或醫療決策、評估學生或訓練成果,以及優先保障基本服務等流程。這些並非小眾的邊緣案例,而是許多組織的核心營運流程。同時,並非所有人工智慧應用都具有同等的重要性。回答一般諮詢的聊天機器人與影響招募或貸款決策的系統截然不同。差別在於其影響力。

企業往往低估了「有用的自動化」一旦開始影響實際結果,就會迅速演變成「受監管的決策支援」。因此,分類必須一致、有據可查且可審查,而不是一次性的非正式判斷,之後便無人質疑。

ISO 42001 Checklist PDF Download
Loading...
免費下載

ISO/IEC 42001 準備檢查表

如果您正著手評估組織內人工智慧的治理情況,這份清單將為您提供一個結構化的起點。它能幫助您識別人工智慧的應用場景,評估您目前的治理方法,並了解為符合 ISO/IEC 42001 標準可能需要採取哪些措施。

從人工智慧系統到治理系統

當涉及高風險人工智慧時,監管的重點會發生轉變。監管不再只關注模型本身,而是關注圍繞模型建構的治理體系。監管機構關注的是組織能否證明其擁有有效的控制能力。這包括如何識別風險、如何記錄決策、如何維持監督,以及在出現問題時如何處理。

這通常要求組織解決以下領域的問題:

  • 風險管理和問責制
  • 資料治理和文件編制
  • 透明度和可追溯性
  • 人為監督
  • 監控和事件處理。

總而言之,這些並非孤立的要求,它們共同構成了一個治理結構。

實際上,合規與其說是證明某種模式有效,不如說是表明圍繞該模式的組織處於控制之下。

禁止的行為和通用人工智慧

該法案也界定了一系列被禁止的人工智慧實踐。雖然範圍狹窄,但這些實踐將受到最嚴厲的處罰。各組織應能證明,在製定治理流程時,已考慮並排除了這些實踐。

同時,通用人工智慧也帶來了另一層責任。許多組織依賴嵌入第三方工具中的人工智慧功能,而不是建立自己的模型。

這引發了一系列實際問題,例如供應商監管、透明度、文件記錄以及如何管理上游風險以應對下游風險。實際上,治理不能止步於採購環節,而需要延伸到人工智慧在日常營運中的實際應用。

各組織目前面臨的問題

各行各業圍繞人工智慧的討論已經發生了轉變。它不再僅僅由創新驅動,而是越來越受到問責制的影響。領導團隊正在提出諸如以下問題:

  • 我們究竟在哪些方面應用了人工智慧?
  • 這些用途哪些可能有高風險?
  • 相關風險由誰承擔?
  • 有哪些相關文件?
  • 我們能否向監管機構或審計人員解釋我們的控制措施?

這些並非純粹的法律問題,而是治理問題。
已經運行結構化管理系統的組織通常具有優勢。它們習慣於明確職責、維護文件並展現管控能力。挑戰在於如何將同樣的管理規範擴展到人工智慧領域。

治理框架如何支持合規性

歐盟人工智慧法案規定了組織需要解決的問題,但並未規定內部治理結構應如何建構。

管理體系方法正是在此發揮作用。它們提供了一種將職責、流程和控制措施整合起來,形成一致且可重複的系統的方法。

在實踐中,結構化的AI治理方法整合了明確的角色和職責、完整的AI系統和用例清單,以及一致的分類和風險評估方法。它還包括由書面政策支援的生命週期控制,以及監控、升級和持續改進機制。

對許多組織而言, ISO/IEC 42001正在成為該領域的一個實用框架。它提供了一種結構化、可審計的方法來管理人工智慧系統。明確以下區別至關重要:

  • 歐盟人工智慧法案制定法律要求,
  • 治理框架有助於將這些目標付諸實施。
  • 獨立評估能夠增強人們對評估方法應用的信任。

從哪裡開始呢?

對大多數組織而言,出發點並非對每個模型進行深入的技術審查,而是明確方向。切實可行的方法通常遵循簡單的步驟。

  • 首先,要提高可見度。繪製出人工智慧在整個組織中的應用圖譜——包括內部系統、第三方工具以及可能並不顯而易見的嵌入式功能。
  • 接下來,明確責任歸屬。明確誰負責監督、風險評估和文件記錄。如果沒有清晰的問責機制,治理往往只能是非正式的。
  • 接下來,評估風險敞口。識別可能出現高風險或違禁用途的問題。這很少是純粹的技術性工作——它需要法律、合規、風險和營運團隊的共同參與。
  • 最後,開始規範治理結構。將政策、控制措施和流程整合到一致且可重複的模式中。

目標並非從一開始就做到完美,而是要具備可辯護性——能夠證明人工智慧系統是被理解的,風險已被評估,並且治理是以結構化的方式實施的。

這在實踐中意味著什麼

歐盟人工智慧法案不僅是一項監管舉措,更是對組織成熟度的考驗。能夠更好地迎接2026年挑戰的組織,未必是那些擁有最先進人工智慧能力的組織,而是那些能清楚展示如何有效管理這些能力的組織。

他們將能夠解釋:

  • 他們使用的
  • 它會帶來哪些風險?
  • 如何管理這些風險,
  • 誰該為此負責?

對許多人來說,問題不再是人工智慧治理是否需要正式化,而是能令人信服地證明其有效性。與其從零開始,不如將重點放在擴展現有管理系統上,使其能夠反映人工智慧如今的實際應用方式——以一種結構化、透明且在關鍵時刻能夠清晰展現的方式。

聯繫DQS

如果您想了解歐盟人工智慧法案如何適用於您的組織,以及符合審計要求的人工智慧治理方法在實踐中是什麼樣的,請聯絡您當地的DQS辦事處開始討論。

聯絡我們
Author

Aakriti Patwari

Loading...

You Might Also Enjoy These Reads

Discover more articles that dive deep into related themes and ideas.
Blog
Loading...

AWS 和 Azure 已通過 ISO 27001 認證--但這並不意味著您的公司也通過了認證

Blog
Loading...

董事總經理NIS-2:職責、責任與實施

Blog
Loading...

為什麼 ISO 42001 是您 ISO 27001 認證的必要策略升級