近年來,人工智慧(AI)在香港的應用已從前沿概念轉變為推動商業發展的核心引擎。根據生產力促進局(HKPC)的調查,超過八成的香港企業員工已在日常工作中使用 AI。然而,隨著 AI 技術的深度融合,其引申的個人資料隱私風險也日益成為社會及監管機構關注的焦點。香港個人資料私隱專員公署(PCPD)已明確將香港 AI 隱私保護作為其重點工作之一。

對於許多企業而言,當前面臨的核心挑戰在於,當創新步伐不斷加快時,如何準確理解和把握監管機構評估 AI 應用的視角與尺度。這種不確定性,使得企業在擁抱 AI 帶來的效率提升時,也對潛在的合規風險感到擔憂。本文將從第三方認證與審核的專業視角,客觀解析 PCPD 的監管趨勢、檢查重點以及企業在實踐中常見的合規盲點,旨在幫助企業更好地理解監管預期,而非提供具體的實施方案。

PCPD 關於 AI 與個人資料保護的監管方向

為應對 AI 帶來的挑戰,PCPD 於 2024 年 6 月正式發佈了《人工智能:個人資料保障模範框架》(下稱「《模範框架》」),為企業在採購、實施和使用 AI(特別是生成式 AI)時,如何遵守《個人資料(私隱)條例》(PDPO)提供了指引。這份 PCPD AI 指引標誌著香港數據保護監管進入了更加主動和細化的新階段。

《模範框架》並非旨在束縛創新,而是倡導一種負責任的創新模式。其核心在於強調三大數據管理價值和七大 AI 道德原則,其中「問責」(Accountability)、「透明度」(Transparency)和「風險為本」(Risk-based)的理念貫穿始終。框架建議企業從四個關鍵領域構建其治理體系:

監管領域核心關注內容
AI 策略及管治建立內部 AI 管治架構,明確採購和使用 AI 的策略與流程,並對員工進行培訓。
風險評估及人力監督在部署 AI 前進行全面的風險評估,特別是 AI PIA(隱私影響評估),並根據風險水平決定適當的人力監督程度。
AI 模型的定制、實施和管理在數據處理、模型測試、系統安全和持續監控等環節,確保符合 PDPO 的規定。
與持份者的溝通和互動提升透明度,向數據當事人清晰解釋 AI 的使用情況,並設立有效的溝通和反饋渠道。

這種監管導向表明,PCPD 期望企業將人工智能個人資料保護視為一個貫穿 AI 系統整個生命週期的系統性工程,而非一次性的技術部署。

 

監管與審核視角下的三類核心關注點

從認證或審核的角度出發,當評估一個組織的 AI 應用時,通常會聚焦於其治理過程的完整性與合理性。以下三類問題是監管檢查或獨立審核中可能關注的核心領域。

  • AI 應用前的風險識別與評估

監管或檢查通常會關注,組織在決定採用某項 AI 技術之前,是否經過審慎的風險考量。這並非要求預測所有潛在風險,而是關注組織是否建立了一套識別、分析和評估風險的機制。相關證據可能包括:

  1. 是否進行過系統的風險評估:例如,是否曾進行隱私影響評估(PIA)來識別 AI 應用對個人資料可能帶來的影響。根據 PCPD 在 2025 年 5 月發佈的合規檢查報告,在收集個人資料的受查機構中,約 83% 在實施 AI 系統前進行了隱私影響評估。
  2. 是否記錄了關鍵的決策過程:對於為何選擇特定的 AI 模型、採用何種程度的人力監督(如「人在回路中」或「人在監督中」)等關鍵決策,是否有相應的會議記錄、分析報告或審批文件作為支撐。
  3. 是否評估了對個人資料的潛在影響:是否考慮過數據最小化原則,即僅使用為達到目的所必需的最少量個人資料。對於用於訓練 AI 模型的數據,其來源的合法性與合規性是否經過評估。
  • 透明度與數據主體權利

《模範框架》高度重視透明度。監管或檢查通常會關注,組織是否以清晰、易懂的方式向數據當事人(如客戶或員工)溝通其 AI 的使用情況。這不僅是合規要求,也是建立信任的基礎。關注點可能包括:

  1. 是否向用戶清晰說明 AI 的使用情況:例如,在《個人資料收集聲明》(PICS)中,是否明確告知用戶其個人資料將被用於 AI 分析或決策,以及 AI 在其中扮演的角色。
  2. 是否具備回應查詢或投訴的機制:當用戶對 AI 作出的決定(例如,信貸審批、個性化推薦)提出疑問時,組織是否有流程和能力作出解釋與回應。這涉及到 AI 系統的可解釋性(Interpretability)問題。
  3. 是否提供了選擇權:在適當情況下,是否為用戶提供拒絕或退出被 AI 分析的選項。
  • 數據安全與治理責任

AI 合規不僅僅是法律問題,更是一個組織內部的治理問題。監管或檢查通常會關注,組織是否將 AI 相關的責任落實到具體部門和人員。PCPD 的合規檢查發現,在收集個人資料的受查機構中,約 79% 已設立 AI 管治架構。具體的關注點可能包括:

  1. 是否明確了內部責任分工:是否成立如「AI 管治委員會」之類的跨部門小組,或指定專門的負責人來監督 AI 的風險與合規事宜。
  2. 是否考慮了數據安全風險:是否針對 AI 系統實施充分的數據安全措施,如存取控制、數據加密,以及針對模型本身的對抗性攻擊(Adversarial Attack)的防護措施。
  3. 是否具備持續監控的意識:AI 模型和外部環境都在不斷變化,組織是否建立了對 AI 系統進行定期審核和監控的機制,以應對新出現的風險。

 

企業在 AI 隱私合規中的常見誤區

在與企業的接觸中,我們觀察到一些在推動 AI 應用時可能出現的合規盲點或誤區。這些誤區往往源於對監管邏輯的理解偏差。

  • 誤區一:將 AI 風險僅視為技術問題 

許多組織傾向於讓 IT 部門全權負責 AI 的實施,而忽略了法律、合規、風控甚至公共關係部門的早期介入。實際上,AI 隱私風險是一個跨職能的治理問題,需要從組織戰略層面進行統籌。

  • 誤區二:未系統考慮個人資料風險 

在項目初期,團隊可能更專注於實現技術功能,而未能充分評估該過程是否涉及個人資料、涉及哪些資料、以及是否符合最初的收集目的。PCPD 強調,使用客戶的真實對話數據來訓練通用聊天機器人,若未經授權或超出原始收集目的,很可能違反 PDPO 的目的限制原則。

  • 誤區三:僅關注創新速度,忽略合規責任 

在激烈的市場競爭中,企業容易優先考慮產品的快速上線,而將合規評估視為一個可以「稍後處理」的流程。然而,將隱私保護設計(Privacy by Design)的理念融入產品開發的全過程,遠比在產品成型後進行補救更具成本效益。

  • 誤區四:誤以為外包供應商承擔全部責任 

企業在採購第三方 AI 服務時,容易認為數據處理和合規的責任完全轉移給供應商。但根據 PDPO,作為數據使用者(Data User),企業仍有責任確保其委託的數據處理者(Data Processor)提供足夠的安全保障,並需透過合同等方式加以約束。

 

從認證/審核角度看,企業可能被要求說明哪些事項

在進行獨立的第三方審核或認證時,重點是驗證組織是否「說到做到」,即其內部的治理框架和流程是否得到有效執行。因此,審核員可能會要求組織提供或說明以下類別的事項,以證明其合規治理能力:

  1. 風險識別過程的記錄 例如,隱私影響評估(PIA)報告、風險登記冊(Risk Register)或相關的研討會記錄。
  2. 關鍵決策的文件 關於 AI 供應商的選擇標準、模型用途的審批文件,以及確定人力監督級別的分析報告。
  3. 責任分配機制的證明 例如,AI 治理委員會的職權範圍(Terms of Reference)、相關崗位的職責描述(Job Description),或內部政策中關於責任分配的條款。
  4. 相關政策或程序的存在性 例如,組織內部的《AI 使用政策》、《員工使用生成式 AI 指引》,或數據洩露應急預案中針對 AI 事件的特定章節。

需要強調的是,審核關注的是這些記錄和機制的「存在性」與「合理性」,而非提供一套標準的模板讓企業遵循。

 

結語

在香港數據保護監管日益精細化的背景下,企業需要從被動合規轉向主動治理。理解 PCPD 的監管邏輯和預期,是企業在 AI 創新浪潮中穩健前行的關鍵。AI 合規最終並非一個純粹的技術挑戰,而是一個涉及戰略、文化和流程的綜合性治理命題。透過建立健全的內部治理框架,企業不僅能有效管理風險,更能將對隱私和道德的承諾,轉化為贏得客戶信任和市場競爭力的長期優勢。

 

DQS HK 相關服務

作者

DQS HK

在我們所做的每一項工作中,我們始終堅持最高的質量和專業標準。這不僅使我們的行動成為行業標杆,也成為我們不斷精進和堅守的使命。

Loading...

相關文章與活動

你可能對此也感興趣
Blog
Loading...

AWS、Azure 已取得 ISO 27001 驗證,但不等於企業本身符合 ISO 27001

Blog
Loading...

為什麼 ISO 42001 是 ISO 27001 認證的必要策略升級?

Blog
Loading...

HKMA C-RAF 2.0 自我評估指南:提升金融機構網絡應變能力的策略