從創新到治理
香港對人工智慧的政策重點已經改變了——從鼓勵創新轉向加強治理和問責。
這兩份PCPD出版品共同構成了一個雙層結構:
- 頂層:全組織範圍的治理與監督
- 底層:日常人工智慧使用的實用工作場所指南
這一框架反映了香港日益重視透明、公平、負責、安全人工智慧管理—如今已成為全球政策和本地隱私實踐的核心原則。
兩份《個人防護裝備條例》文件說了什麼?
本指南重點在於人工智慧工具在日常工作場所的應用。它建議各組織:
- 明確允許使用哪些人工智慧工具和進行哪些人工智慧活動;
- 禁止員工上傳機密或個人資料;
- 在發佈人工智慧生成的內容前,必須進行人工審核;
- 提供關於資料保護和人工智慧倫理使用的持續培訓。
它起到以下作用:內部政策模型用於管理員工層面的人工智慧相關風險。
此框架提供了一個組織層面的模型,鼓勵公司:
- 建造一個人工智慧治理結構領導責任明確;
- 執行風險評估和人工監督部署前;
- 管理人工智慧生命週期從資料收集到持續監測;
- 與公眾和利害關係人進行透明溝通。
它的訊息很明確:人工智慧倫理必須融入公司治理之中,而不是事後添加。
ISO/IEC 42001-將政策轉化為實踐
這ISO/IEC 42001:2023該標準為人工智慧治理提供了全球基準。
它呼應了PCPD的建議,並建立了一個結構化的管理系統方法用於風險控制、問責和持續改進。
| PCPD 焦點 | ISO 42001條款 | 這對企業意味著什麼 |
| 人工智慧策略與領導力 | 5.1 領導力 / 6.1 規劃 | 明確責任和可衡量的目標 |
| 風險管理與監督 | 8.3 風險管理 | 將基於風險的控制措施應用於人工智慧運營 |
| 生命週期與安全 | 8.4 生命週期 / 8.5 安全控制 | 確保人工智慧訓練和部署過程中的資料安全 |
| 透明度和溝通 | 9.2 溝通 / 10.1 改進 | 保持開放態度並持續改進 |
透過採用 ISO 42001,組織可以將合規性要求轉化為可審計的、全球統一的治理流程。
企業如何應用這些原則
制定明確的內部人工智慧政策,具體內容包括:
- 哪些工具獲得批准?
- 能做什麼或不能做什麼;
- 誰負責監督?
例子:市場部門可以使用 ChatGPT 來撰寫非機密內容,但客戶服務團隊不應輸入任何客戶或個人資料。
審核目前人工智慧使用:
- 它是否處理個人資料?
- 自動產生的決策是否由人工審核?
- 模型和資料集是否安全維護?
- 你們是否依賴第三方人工智慧供應商?
例子:使用人工智慧進行信用評分的金融機構應測試公平性並監控跨境數據流動。
規範治理:
- 任命人工智慧官員或委員會;
- 進行發布前影響評估;
- 保留記錄以便進行審計和改進。
例子:在部署聊天機器人之前,IT 團隊會完成人工智慧風險評估並獲得管理層的批准。
這對香港為何重要
負責任的人工智慧治理正迅速成為一種香港的核心業務重點。
將PCPD指南與ISO/IEC 42001保持一致,可以為組織提供發展路線圖。透明、公平、值得信賴人工智慧操作。
這種協調一致表明香港已為未來的人工智慧政策發展做好準備,並展示了企業如何與客戶、監管機構和合作夥伴建立長期信任。
常問問題
Q1. 什麼是 ISO/IEC 42001?
ISO/IEC 42001: 2023 定義了人工智慧管理系統 (AIMS) 的要求,以確保負責任、透明和可審計的人工智慧實踐。
Q2. 香港的個人電腦政策指令在人工智慧治理中扮演什麼角色?
PCPD發布不具約束力的指導意見,以幫助組織在開發或使用人工智慧系統時建立問責制、透明度和資料保護。
問題3:香港企業如何為負責任的人工智慧做好準備?
透過使其內部管理系統與 PCPD 指南保持一致,並採用 ISO/IEC 42001 風險管理和監督架構。
DQS HK 的關聯服務