違反歐盟《人工智慧法案》的代價可能極為高昂。根據違規情況不同,罰款最高可達全球年營業額的7%或3500萬歐元,兩者取其高。該法案於2024年8月生效,並將於2026年8月全面適用,其中一些關鍵義務已陸續生效。

對許多組織而言,2026年將是人工智慧監管從「值得關注的議題」轉向「責任義務」的關鍵轉捩點。曾經只是需要持續觀察的議題,如今已成為董事會、監管機構和客戶期望組織理解並展現的能力。

挑戰不僅在於理解法規條文,更在於理解其在實務上的意義。舉例來說:

  • 哪些組織會受到影響? 
  • 「高風險人工智慧」是否適用於您的系統?
  • 監管機構希望看到哪些證據?
  • 以及如何將法律轉化為結構化且可執行的方案?

歐盟《人工智慧法案》旨在做些什麼

歐盟《人工智慧法案》是一種以風險導向的監管方式來執行的人工智慧。人工智慧系統對人們的權利、安全或機會的潛在影響越大,所需要遵守的義務與要求就越嚴格。該法案的核心是依據人工智慧的使用情境劃分為不同的風險等級——從嚴禁的行為到高風險系統,再到僅需透明度要求的低風險的應用。此外,該法案還對「通用人工智慧模型」導入了相應的義務,以反映了這些技術目前在各行各業的廣泛應用。

實務上來說,該法規實現了以下四點:

  • 禁止部分特定人工智慧的應用,
  • 對高風險系統提出嚴格要求,
  • 針對某些用途建立透明度義務的制度,
  • 並為「通用人工智慧模型」製定規則。

這種結構意味著該法案的影響範圍遠遠超出科技產業業者本身。它通樣適用於任何在歐盟境內開發、部署、整合、採購或依賴人工智慧系統的組織——而這些組織往往在最初並未意識到自己以落入法規監管範圍內。

為什麼許多組織早已被納入在《人工智慧法案》的適用範圍

人們普遍認為歐盟《人工智慧法案》主要影響是針對大型科技公司所制定的規範。但實際上,企業所面臨的風險往往不在於誰開發人工智慧,而是來自於如何使用人工智慧。

人工智慧如今已融入日常營運流程中,舉例來說:招聘工具、信貸決策、醫療支援系統、客戶互動和內部工作流程等各個方面,由此可見,人工智慧的應用已遍布各行各業。在許多情況下,許多企業已經在無意識的情況下被納入法案規定所規範使用人工智慧的適用範圍了。

此法案對於以下領域尤為重要,包含招聘和勞動力管理、包括信貸或保險在內的金融決策、醫療保健和診斷、教育與評量、公共服務或基礎設施以及依賴生成式人工智慧的客戶導向工具。

對於一個企業來說,試著換個角度,用理性且易懂的方式是試著去問自己:

「現在有哪些由AI 協助做出的決策,其實已經正在影響人的結果、權益或機會了?」

通常,法規風險就是從一個簡單的問題開始的。

為什麼2026年很重要

《人工智慧法案》正分階段實施,但到2026年8月,大部分條款將全面生效。屆時,各組織應清楚了解自身的人工智慧現況及其治理方式。這並不意味著每個流程都必須完美無缺,但確實意味著各組織應能證明:

  • 對正在使用的人工智慧系統是否了解
  • 採用一致性的分類方法,
  • 明確問責制,
  • 有據可查的控制措施,
  • 並具備在必要時可隨時提供相應證據的能力。

等到最後關頭因主管機關開始推動法規,才被迫採取行動是一種極為冒險的做法。因為通常當主管機關開始提問時,他們期待的是企業早就已經有一套完整、有架構的答案與管理機制。

「高風險人工智慧」在實踐中的意義

對許多組織而言,高風險人工智慧代表不確定性。真正影響人工智慧系統是否被定義為【高風險】的判定條件,與其說是技術本身的問題,不如說是技術的應用方式的問題。當系統產生的決策可能對人們生活產生實質影響時——例如就業、財務獲取、醫療保健、教育、安全或法律地位——這些系統就屬於高風險範疇。

在實務中,人工智慧通常應用於篩選或對適合的求職者作排序、評估信用度或保險風險、輔助臨床或醫療決策、評估學生或訓練成果,以及優先保障基本服務等流程。這些是許多組織的核心營運流程而非並非微小的決定。同時,並非所有人工智慧應用都具有同等的重要性。回答一般諮詢的聊天機器人與影響招募或貸款決策的系統截然不同。差別在於其影響力。

企業往往低估了「有用的自動化」這句話背後的涵義,即是一旦開始影響並產生實際的結果,就會迅速演變成「必須受監管的決策支援」。因此,分類必須一致、有據可查且可審查,而不是一次性的非正式判斷,之後便無人質疑。

ISO 42001 Checklist PDF Download
Loading...
免費下載

ISO/IEC 42001 準備檢查表

如果您正著手評估組織內人工智慧的治理情況,這份清單將為您提供一個結構化的起點。它能幫助您識別人工智慧的應用場景,評估您目前的治理方法,並了解為符合 ISO/IEC 42001 標準可能需要採取哪些措施。

從人工智慧系統到治理系統

當涉及高風險人工智慧時,監管的重點會發生轉變。監管不再只關注模型本身,而是關注圍繞模型建構的治理體系。監管機構關注的是組織能否證明其擁有有效的控制能力。這包括如何識別風險、如何記錄決策、如何維持監督,以及在出現問題時如何處理。

這通常要求組織解決以下領域的問題:

  • 風險管理和問責制
  • 資料治理和文件編制
  • 透明度和可追溯性
  • 人為監督
  • 監控和事件處理。

總而言之,這些並非孤立的要求,它們共同構成了一個治理結構。

實際上,合規與其說是證明某種模式有效,不如說是表明圍繞該模式的組織處於控制之下。

禁止的行為和通用人工智慧

該法案也界定了一系列被禁止的人工智慧實踐。雖然範圍狹窄,但這些實踐將受到最嚴厲的處罰。各組織應能證明,在製定治理流程時,已考慮並排除了這些實踐。

同時,通用人工智慧也帶來了另一層責任。許多組織依賴嵌入第三方工具中的人工智慧功能,而不是建立自己的模型。

這引發了一系列實際問題,例如供應商監管、透明度、文件記錄以及如何管理上游風險以應對下游風險。實際上,治理不能止步於採購環節,而需要延伸到人工智慧在日常營運中的實際應用。

各組織目前面臨的問題

各行各業圍繞人工智慧的討論已經發生了轉變。它不再僅僅由創新驅動,而是越來越受到問責制的影響。領導團隊正在提出諸如以下問題:

  • 我們究竟在哪些方面應用了人工智慧?
  • 這些用途哪些可能有高風險?
  • 相關風險由誰承擔?
  • 有哪些相關文件?
  • 我們能否向監管機構或審計人員解釋我們的控制措施?

這些並非純粹的法律問題,而是治理問題。
已經運行結構化管理系統的組織通常具有優勢。它們習慣於明確職責、維護文件並展現管控能力。挑戰在於如何將同樣的規範應用於人工智慧領域。

治理框架如何支持合規性

歐盟人工智慧法案規定了組織需要解決的問題,但並未規定內部治理結構應如何建構。

管理體系方法正是在此發揮作用。它們提供了一種將職責、流程和控制措施整合起來,形成一致且可重複的系統的方法。

在實踐中,結構化的AI治理方法整合了明確的角色和職責、完整的AI系統和用例清單,以及一致的分類和風險評估方法。它還包括由書面政策支援的生命週期控制,以及監控、升級和持續改進機制。

對許多組織而言, ISO/IEC 42001正在成為該領域的一個實用框架。它提供了一種結構化、可審計的方法來管理人工智慧系統。明確以下區別至關重要:

  • 歐盟人工智慧法案制定法律要求,
  • 治理框架有助於將這些目標付諸實施。
  • 獨立評估能夠增強人們對評估方法應用的信任。

從哪裡開始呢?

對大多數組織而言,出發點並非對每個模型進行深入的技術審查,而是明確方向。切實可行的方法通常遵循簡單的步驟。

  • 首先,要提高可見度。繪製出人工智慧在整個組織中的應用圖譜——包括內部系統、第三方工具以及可能並不顯而易見的嵌入式功能。
  • 接下來,明確責任歸屬。明確誰負責監督、風險評估和文件記錄。如果沒有清晰的問責機制,治理往往只能是非正式的。
  • 接下來,評估風險敞口。識別可能出現高風險或違禁用途的問題。這很少是純粹的技術性工作——它需要法律、合規、風險和營運團隊的共同參與。
  • 最後,開始規範治理結構。將政策、控制措施和流程整合到一致且可重複的模式中。

目標並非從一開始就做到完美,而是要具備可辯護性——能夠證明人工智慧系統是被理解的,風險已被評估,並且治理是以結構化的方式實施的。

這在實踐中意味著什麼

歐盟人工智慧法案不僅是一項監管舉措,更是對組織成熟度的考驗。能夠更好地迎接2026年挑戰的組織,未必是那些擁有最先進人工智慧能力的組織,而是那些能清楚展示如何有效管理這些能力的組織。

他們將能夠解釋:

  • 他們使用的
  • 它會帶來哪些風險?
  • 如何管理這些風險,
  • 誰該為此負責?

對許多人來說,問題不再是人工智慧治理是否需要正式化,而是能令人信服地證明其有效性。與其從零開始,不如將重點放在擴展現有管理系統上,使其能夠反映人工智慧如今的實際應用方式——以一種結構化、透明且在關鍵時刻能夠清晰展現的方式。

聯繫DQS

如果您想了解歐盟人工智慧法案如何適用於您的組織,以及符合審計要求的人工智慧治理方法在實踐中是什麼樣的,請聯絡您當地的DQS辦事處開始討論。

聯絡我們
作者

Aakriti Patwari

Loading...

相關文章與活動

你可能對此也感興趣
Blog
Loading...

AWS、Azure 已取得 ISO 27001 驗證,但不等於企業本身符合 ISO 27001

Blog
Loading...

為什麼 ISO 42001 是 ISO 27001 認證的必要策略升級?

Blog
Loading...

HKMA C-RAF 2.0 自我評估指南:提升金融機構網絡應變能力的策略