指南概覽:五大維度,五大原則
《資料保護官指引》圍繞著五個風險維度和五個關鍵原則建構了人工智慧治理框架。這些面向和原則共同界定了香港負責任的人工智慧治理應有的模式。
該指南指出了生成式人工智慧在五個方面引入的風險,這些風險超出了傳統資訊安全管理的範圍。
| 方面 | 指南確定的核心風險 |
|---|
| 個人資料隱私 | 人工智慧生命週期的每個階段都存在隱私風險——從資料收集和模型訓練到輸出產生。即使是微小的失誤也可能導致敏感資訊外洩。 |
| 智慧財產 | 使用受保護材料進行訓練存在著版權模糊性,人工智慧生成內容的歸屬權也不明確。 |
| 預防犯罪 | 深度偽造、人工智慧驅動的詐欺和虛假資訊。該指南明確提及了逼真的假音訊和視訊內容對社會日益增長的威脅。 |
| 可靠性和可信度 | 「黑箱」問題——難以追蹤人工智慧的決策邏輯,導致當輸出結果錯誤、有偏見或具有誤導性時,問責制面臨挑戰。 |
| 系統安全 | 人工智慧特有的攻擊途徑包括資料投毒、對抗性攻擊和模型反轉,而這些是傳統網路安全控制措施無法解決的。 |
該指南進一步確立了所有人工智慧相關活動應遵循的五項原則。
| 原則 | 指南的要求 |
|---|
| 遵守法律法規 | 所有人工智慧作業都必須符合香港現有的法律框架,包括《個人資料(私隱)條例》(第 486 章)。 |
| 安全與透明度 | 各組織必須實施安全措施,並確保人工智慧運作具有可解釋性。服務提供者必須向用戶充分揭露風險。 |
| 準確性和可靠性 | 必須對人工智慧的輸出結果進行測試、監控和驗證,以確保其正確性和可靠性。 |
| 公平性和客觀性 | 必須積極識別並減輕數據和演算法中的偏差。 |
| 實用性和效率 | 人工智慧系統必須符合其用途,並且治理措施應與風險等級相稱。 |
該指南也非常重視人為監督,要求根據人工智慧系統的潛在影響來調整人為幹預的程度——從監督有限的協作模型到人工智慧僅作為輔助工具的人類主導模型。
將指南映射到 ISO 42001:從原則到可審核的控制
ISO 42001 與 ISO 27001 共享相同的高階結構 (HLS),因此對於任何已運行資訊安全管理系統 (ISMS) 的組織而言,它都是一個自然的擴展。它將資料保護官指南的原則轉化為具體的、可審計的控制措施,並組織在專門的附件 A 領域中。
下表展示了 DPO 指南的每個核心要素如何與 ISO 42001 的特定要求相對應。
| 資料保護官指南要求 | ISO 42001實施機制 | 實際結果 |
|---|
| 遵守法律 | 第 4.1 條(背景)和 A.6.2 條(目標):系統地識別與人工智慧相關的所有法律、監管和合約義務。 | 一份專門針對人工智慧的法律登記冊,定期審查和更新。 |
| 安全與透明度 | A.8(相關方資訊)和 A.10(第三方和客戶關係):要求就人工智慧系統的目的、能力和限制進行清晰的溝通。 | 人工智慧系統的標準化揭露文件和透明度報告。 |
| 準確性和可靠性 | A.6.5(驗證與確認)與 A.6.8(監控):建立針對預定義效能指標的測試與持續運轉監控。 | 制定了測試計劃、性能基準和監控儀表板,並定義了閾值。 |
| 公平與客觀 | A.5.3(人工智慧影響評估)和 A.7.4(數據品質):正式的影響評估,以識別偏差風險;嚴格的數據品質控制,以防止結果出現偏差。 | 將偏差評估報告和數據品質管理程序整合到開發生命週期中。 |
| 人為監督 | A.6.10(人為監督):定義並實施適當等級的人為介入、審查和控制。 | 制定了書面監督政策,明確規定了誰負責審查什麼內容、何時審查以及擁有何種幹預權限。 |
| 資料隱私 | A.5.3(影響評估)和 A.7.2(資料處理):透過對個人資料的影響評估,實現隱私設計,並對敏感資訊的處理進行控制。 | 將隱私影響評估納入人工智慧系統開發流程。 |
| 系統安全 | A.7.3(人工智慧資訊安全):擴展 ISO 27001 控制措施,以應對人工智慧特有的威脅,例如資料投毒和對抗性攻擊。 | 更新了威脅模型、事件回應計畫和安全控制措施,專門針對人工智慧攻擊途徑。 |
| 犯罪預防(深度偽造) | A.9(人工智慧系統的使用)和 A.6.7(人工智慧系統運作):對人工智慧系統的負責任使用和部署進行控制,包括輸出標記和防止濫用。 | 關於人工智慧輸出標註、內容認證措施和可接受使用準則的政策。 |
這份分析報告揭示了一個關鍵訊息:資料保護官指南和ISO 42001並非相互競爭的框架,而是相輔相成的-指南界定了香港的治理預期,而ISO 42001則提供了一套國際認可的管理體系來滿足這些預期。
企業人工智慧治理中常見的弱點
開始著手解決人工智慧治理問題的組織經常會遇到一些反覆出現的差距。了解這些不足之處有助於確定實施工作的優先順序。
許多組織在部署人工智慧工具時,並沒有建立結構化的流程來評估其對個人、群體或社會可能造成的負面影響。 《資料保護官指南》和 ISO 42001(附件 A.5.3)都將此視為一項基本要求,然而,這仍然是實踐中最常被忽視的環節。
開發團隊經常使用公開資料集或內部數據,卻沒有嚴格記錄資料來源、檢查固有偏差或驗證是否適用於特定的人工智慧應用。 ISO 42001 附錄 A.7 提供了一套完整的資料治理控制措施,彌補了這一不足。
監控人工智慧輸出、在故障時進行幹預以及做出最終決策的角色和職責往往並不明確。 《資料保護官指南》根據所需的人工監督等級對人工智慧系統進行了分類——從協作型模型到人工主導型模型——但許多組織並未進行這種分類。
員工和部門經常在未經正式批准或風險評估的情況下採用第三方人工智慧工具,從而造成安全和隱私風險,而這些風險超出了現有IT治理的範疇。 ISO 42001附錄A.10專門針對涉及人工智慧的第三方和客戶關係。
- 將人工智慧治理僅視為IT部門的職責
有效的AI治理需要跨職能部門的參與——包括法律、合規、人力資源、營運和業務領導層——而不僅僅是IT或資訊安全團隊。 ISO 42001的管理體系方法確保治理融入組織層面,而非侷限於單一部門。
五個問題評估你的準備程度
以下問題可作為初步的自我評估,以衡量貴組織與 DPO 指南的一致性以及 ISO 42001 的準備程度。
- 你們是否有正式的、有據可查的流程,在部署人工智慧系統之前評估其對社會和個人的潛在影響?這是《指南》和 ISO 42001 標準中最重要的控制措施。
- 您能否追溯關鍵人工智慧應用中使用的數據的來源,並證明已對其品質、偏差和適用性進行評估?資料溯源是 ISO 42001 附錄 A.7 的核心要求。
- 是否有明確的、有據可查的政策,規定每項人工智慧應用所需的人工監督級別,並指定負責幹預的人員?資料保護官指南明確要求進行校準的人工監督。
- 您是否已在領導階層設立跨職能的人工智慧治理職責,而不是僅僅將人工智慧治理權委託給IT部門? ISO 42001第5條(領導階層)要求高階主管做出承諾並明確職責。
- 您目前的資訊安全框架是否能夠應對人工智慧特有的威脅,例如資料投毒、提示注入和對抗性攻擊?如果您的組織已獲得 ISO 27001 認證,升級到 ISO 42001 可以有效彌補這一差距,兩者之間約有 40% 的控制措施重疊。
DQS HK 的關聯服務