香港《个人资料(私隐)条例》下的数据隐私和人工智能系统:企业需知

Read

香港《个人资料(私隐)条例》下的数据隐私和人工智能系统:企业需知

在香港部署人工智能会触发《个人资料(私隐)条例》的义务。本指南涵盖应用于人工智能系统、自动化决策、生成式人工智能工具、跨境转移及个人资料私隐专员公署人工智能指引的六项保护资料原则。

香港《个人资料(私隐)条例》下的数据私隐和人工智能系统:企业需知

在香港部署人工智能系统使企业面临《个人资料(私隐)条例》(第486章)下的义务,该条例自1995年颎布以来一直是香港基础隐私法。本文解释《个人资料(私隐)条例》的六项保护资料原则如何应用于人工智能数据收集、训练和自动化决策;检查隐私专员的人工智能新兴指引;并为在香港部署人工智能系统的企业提供实务指导。

《个人资料(私隐)条例》框架:结构和范围

《个人资料(私隐)条例》是香港的主要隐私法。它不创建具有直接牌照颁发权的行业特定监管机构;相反,它建立由独立法定当局个人资料私隐专员公署(PCPD)执行的一般隐私义务。《个人资料(私隐)条例》适用于在香港收集、持有、处理或使用个人资料的任何人。

六项保护资料原则及其对人工智能的应用

保护资料原则1:个人资料收集。保护资料原则1为个人资料收集建立三项核心要求:(a)数据必须充分且不过度收集的目的;(b)收集必须为合法目的;以及(c)数据主体必须获得个人资料收集陈述(PICS)披露收集目的、预期使用和将转移数据的人士类别。

应用于人工智能系统,保护资料原则1创造若干义务。如果为一个目的收集个人资料,该数据不能用于训练商业人工智能模型,而无需:(a)数据主体对人工智能训练使用的单独知情同意;或(b)人工智能训练与原收集目的直接相关的发现。

保护资料原则2:准确性和保留。保护资料原则2要求组织持有的个人资料必须准确且不得保留超过必要。训练完成且模型部署后,原训练数据应被删除,除非有合法理由保留它。

保护资料原则3:个人资料使用。保护资料原则3是「目的限制」原则:为一个目的收集的个人资料可能不用于不同目的,除非新目的与原目的直接相关或数据主体同意新使用。此原则在人工智能背景中经常被违反。

保护资料原则4:个人资料安全。保护资料原则4要求实施适当的安全保障以保护个人资料免受未授权或意外访问、修改或披露。对于人工智能系统,这意味着包含个人资料的人工智能训练数据必须存储在具有访问控制的安全服务器上。

保护资料原则5:公开性。保护资料原则5要求组织在可访问隐私政策中披露其数据处理实践。应用于人工智能,组织应发布明确的隐私政策和数据治理文件,解释如何在人工智能系统中使用数据。

保护资料原则6:访问和更正。保护资料原则6授予个人访问组织持有的他们个人资料的权利以及要求更正不准确数据的权利。如果个人资料已用于训练人工智能模型,该数据现在已嵌入模型的参数中,无法在任何实际意义上被容易地「访问」或「更正」。

自动化决策和明确权利的缺失

欧盟的GDPR包含第22条,该条授予个人不受仅基于自动处理的决定约束的权利。香港的《个人资料(私隐)条例》不包含相当条款。但是,PCPD的2021年自动化决策系统中人工智能使用指引建议组织对重大自动化决策保持人类监督并向个人提供关于决策如何进行的有意义信息。组织不应依赖明确法定权利的缺失进行完全自动化决策而无需人类监督或透明度。

生成式人工智能工具和员工数据

如果组织的员工使用公共生成式人工智能工具起草电子邮件、文件或代码,且该工具在没有删除或使用限制的情况下处理这些输入,该组织可能无意中将其员工个人资料转移给外部当事人。这违反保护资料原则3以及潜在保护资料原则4。

对于使用生成式人工智能工具的组织,最佳实践是:(a)实施内部可接受使用政策明确禁止将个人资料输入公共人工智能工具;(b)确保员工理解什么数据被视为个人且不应被披露;(c)与人工智能供应商签订数据处理协议以限制供应商对输入的使用并提供数据删除;以及(d)教育员工关于隐私条例风险。

跨境数据转移和云人工智能服务

大多数生成式人工智能和机器学习服务在香港外地所有的云基础设施上运作。当组织在这些服务上处理个人资料时,其转移该数据在香港外。PCPD已建议进入跨境数据转移协议的组织应包含条款要求:(a)收取者只为指定目的使用数据;(b)收取者提供至少相当于香港法的安全措施;(c)个人在海外持有的数据访问和更正权;以及(d)组织验证合规的机制。

PCPD关于人工智能的指引:主要建议

PCPD于2021年12月发布《自动化决策系统中人工智能使用指引》。指引不受约束,但反映PCPD的监管期望。主要建议包括:

  • 问责。组织应指定一名负责人员或职能负责人工智能系统中的合规。
  • 可解释性。组织应维护关于人工智能模型如何进行决策、使用什么训练数据以及模型可能展示什么限制或偏见的文件。
  • 人类监督。对于对个人有重大影响的决策,人工智能系统应纳入有意义的人类审查和覆盖能力。个人应能对自动化决策进行争议或寻求重新考虑。
  • 数据最小化。组织应只收集训练和运营人工智能系统所必要的最小个人资料。
  • 个人权利。组织应实施程序让个人行使他们的保护资料原则6权利与人工智能处理的数据相关。

关黄律师事务所如何帮助

了解我们的数据私隐和人工智能治理业务

本文仅供一般信息和教育目的。不构成法律建议,不应作为此等依赖。法律和监管要求可能会改变。在采取任何行动或依赖本文任何信息之前,您应就您的特定情况寻求独立法律建议。

You may like

香港 RWA 代币化浪潮:如何突破监管高墙

香港 RWA 代币化浪潮:如何突破监管高墙

全球RWA市场规模已达 3,520 亿美元。但香港“相同活动、相同风险、相同监管”的框架对发行人施加了实质合规成本。关黄律师事务所解析监管高墙在实践中的意义——以及如何有效应对。

竞业禁止条款与加密货币之交:香港法院拒绝对加密货币组合管理人执行竞业禁止

竞业禁止条款与加密货币之交:香港法院拒绝对加密货币组合管理人执行竞业禁止

香港法院拒绝对前加密货币组合管理人执行竞业禁止条款。本文分析案例原则、竞业禁止在香港法下的可执行性测试,以及加密及虚拟资产行业雇主应吸取的教训。

window.addEventListener('load',function(){ var e=document.querySelector('.w-locales-empty'); if(e){var ls=[['English','https://www.awlawyers.co'],['繁體','https://www.awlawyers.co/hk'],['简体','https://www.awlawyers.co/cn']]; e.innerHTML=ls.map(function(l){return''+l[0]+'';}).join('');} [].forEach.call(document.querySelectorAll('.flags-wrapper img'),function(img,i){ var u=['https://www.awlawyers.co','https://www.awlawyers.co/hk','https://www.awlawyers.co/cn']; if(u[i]){img.style.cursor='pointer';img.addEventListener('click',function(){window.location=u[i];});} }); });