PCPD 關於 AI 與個人資料保護的監管方向
為應對 AI 帶來的挑戰,PCPD 於 2024 年 6 月正式發佈了《人工智能:個人資料保障模範框架》(下稱「《模範框架》」),為企業在採購、實施和使用 AI(特別是生成式 AI)時,如何遵守《個人資料(私隱)條例》(PDPO)提供了指引。這份 PCPD AI 指引標誌著香港數據保護監管進入了更加主動和細化的新階段。
《模範框架》並非旨在束縛創新,而是倡導一種負責任的創新模式。其核心在於強調三大數據管理價值和七大 AI 道德原則,其中「問責」(Accountability)、「透明度」(Transparency)和「風險為本」(Risk-based)的理念貫穿始終。框架建議企業從四個關鍵領域構建其治理體系:
| 監管領域 | 核心關注內容 |
|---|
| AI 策略及管治 | 建立內部 AI 管治架構,明確採購和使用 AI 的策略與流程,並對員工進行培訓。 |
| 風險評估及人力監督 | 在部署 AI 前進行全面的風險評估,特別是 AI PIA(隱私影響評估),並根據風險水平決定適當的人力監督程度。 |
| AI 模型的定制、實施和管理 | 在數據處理、模型測試、系統安全和持續監控等環節,確保符合 PDPO 的規定。 |
| 與持份者的溝通和互動 | 提升透明度,向數據當事人清晰解釋 AI 的使用情況,並設立有效的溝通和反饋渠道。 |
這種監管導向表明,PCPD 期望企業將人工智能個人資料保護視為一個貫穿 AI 系統整個生命週期的系統性工程,而非一次性的技術部署。
監管與審核視角下的三類核心關注點
從認證或審核的角度出發,當評估一個組織的 AI 應用時,通常會聚焦於其治理過程的完整性與合理性。以下三類問題是監管檢查或獨立審核中可能關注的核心領域。
監管或檢查通常會關注,組織在決定採用某項 AI 技術之前,是否經過審慎的風險考量。這並非要求預測所有潛在風險,而是關注組織是否建立了一套識別、分析和評估風險的機制。相關證據可能包括:
- 是否進行過系統的風險評估:例如,是否曾進行隱私影響評估(PIA)來識別 AI 應用對個人資料可能帶來的影響。根據 PCPD 在 2025 年 5 月發佈的合規檢查報告,在收集個人資料的受查機構中,約 83% 在實施 AI 系統前進行了隱私影響評估。
- 是否記錄了關鍵的決策過程:對於為何選擇特定的 AI 模型、採用何種程度的人力監督(如「人在回路中」或「人在監督中」)等關鍵決策,是否有相應的會議記錄、分析報告或審批文件作為支撐。
- 是否評估了對個人資料的潛在影響:是否考慮過數據最小化原則,即僅使用為達到目的所必需的最少量個人資料。對於用於訓練 AI 模型的數據,其來源的合法性與合規性是否經過評估。
《模範框架》高度重視透明度。監管或檢查通常會關注,組織是否以清晰、易懂的方式向數據當事人(如客戶或員工)溝通其 AI 的使用情況。這不僅是合規要求,也是建立信任的基礎。關注點可能包括:
- 是否向用戶清晰說明 AI 的使用情況:例如,在《個人資料收集聲明》(PICS)中,是否明確告知用戶其個人資料將被用於 AI 分析或決策,以及 AI 在其中扮演的角色。
- 是否具備回應查詢或投訴的機制:當用戶對 AI 作出的決定(例如,信貸審批、個性化推薦)提出疑問時,組織是否有流程和能力作出解釋與回應。這涉及到 AI 系統的可解釋性(Interpretability)問題。
- 是否提供了選擇權:在適當情況下,是否為用戶提供拒絕或退出被 AI 分析的選項。
AI 合規不僅僅是法律問題,更是一個組織內部的治理問題。監管或檢查通常會關注,組織是否將 AI 相關的責任落實到具體部門和人員。PCPD 的合規檢查發現,在收集個人資料的受查機構中,約 79% 已設立 AI 管治架構。具體的關注點可能包括:
- 是否明確了內部責任分工:是否成立如「AI 管治委員會」之類的跨部門小組,或指定專門的負責人來監督 AI 的風險與合規事宜。
- 是否考慮了數據安全風險:是否針對 AI 系統實施充分的數據安全措施,如存取控制、數據加密,以及針對模型本身的對抗性攻擊(Adversarial Attack)的防護措施。
- 是否具備持續監控的意識:AI 模型和外部環境都在不斷變化,組織是否建立了對 AI 系統進行定期審核和監控的機制,以應對新出現的風險。
企業在 AI 隱私合規中的常見誤區
在與企業的接觸中,我們觀察到一些在推動 AI 應用時可能出現的合規盲點或誤區。這些誤區往往源於對監管邏輯的理解偏差。
許多組織傾向於讓 IT 部門全權負責 AI 的實施,而忽略了法律、合規、風控甚至公共關係部門的早期介入。實際上,AI 隱私風險是一個跨職能的治理問題,需要從組織戰略層面進行統籌。
在項目初期,團隊可能更專注於實現技術功能,而未能充分評估該過程是否涉及個人資料、涉及哪些資料、以及是否符合最初的收集目的。PCPD 強調,使用客戶的真實對話數據來訓練通用聊天機器人,若未經授權或超出原始收集目的,很可能違反 PDPO 的目的限制原則。
在激烈的市場競爭中,企業容易優先考慮產品的快速上線,而將合規評估視為一個可以「稍後處理」的流程。然而,將隱私保護設計(Privacy by Design)的理念融入產品開發的全過程,遠比在產品成型後進行補救更具成本效益。
企業在採購第三方 AI 服務時,容易認為數據處理和合規的責任完全轉移給供應商。但根據 PDPO,作為數據使用者(Data User),企業仍有責任確保其委託的數據處理者(Data Processor)提供足夠的安全保障,並需透過合同等方式加以約束。
從認證/審核角度看,企業可能被要求說明哪些事項
在進行獨立的第三方審核或認證時,重點是驗證組織是否「說到做到」,即其內部的治理框架和流程是否得到有效執行。因此,審核員可能會要求組織提供或說明以下類別的事項,以證明其合規治理能力:
- 風險識別過程的記錄 例如,隱私影響評估(PIA)報告、風險登記冊(Risk Register)或相關的研討會記錄。
- 關鍵決策的文件 關於 AI 供應商的選擇標準、模型用途的審批文件,以及確定人力監督級別的分析報告。
- 責任分配機制的證明 例如,AI 治理委員會的職權範圍(Terms of Reference)、相關崗位的職責描述(Job Description),或內部政策中關於責任分配的條款。
- 相關政策或程序的存在性 例如,組織內部的《AI 使用政策》、《員工使用生成式 AI 指引》,或數據洩露應急預案中針對 AI 事件的特定章節。
需要強調的是,審核關注的是這些記錄和機制的「存在性」與「合理性」,而非提供一套標準的模板讓企業遵循。
結語
在香港數據保護監管日益精細化的背景下,企業需要從被動合規轉向主動治理。理解 PCPD 的監管邏輯和預期,是企業在 AI 創新浪潮中穩健前行的關鍵。AI 合規最終並非一個純粹的技術挑戰,而是一個涉及戰略、文化和流程的綜合性治理命題。透過建立健全的內部治理框架,企業不僅能有效管理風險,更能將對隱私和道德的承諾,轉化為贏得客戶信任和市場競爭力的長期優勢。
DQS HK 相關服務