新浪财经

AI应用中劳动者人格权益与数据产权的司法保护

人民法院报微信公众号

关注

编者按:在“五一”国际劳动节即将到来之际,本报特策划推出劳动者权益保护理论与实践专版。7版为理论专版,聚焦当前人工智能应用中劳动者人格权益与数据产权的司法保护问题,作者为知名劳动法学者、中国社会科学院法学研究所研究员王天玉;同时探讨对劳动者的概念进行类型化重构,为平台劳动者权益保护提供另一种思路,作者为浙江省杭州市中级人民法院法官睢晓鹏。8版为实践专版,集中呈现上海市第二中级人民法院、北京市第一中级人民法院、江苏省苏州市中级人民法院针对不同类型劳动者争议案件的审理情况。敬请关注。

AI应用中劳动者人格权益与数据产权的司法保护

中国社会科学院法学研究所研究员 王天玉

近期有关“员工数字分身”的新闻引发了广泛关注,某企业将离职员工训练为AI数字分身继续处理人事工作,开源社区更出现将同事、导师乃至前任“蒸馏”为“AI Skill”的浪潮。这些技术创新的尝试将劳动者的人格化特征与可运用的数字资产直接关联,由此引发了有关劳动关系主体资格、人格权边界与用工责任归属等关键议题的激烈讨论。

一、AI技能复制技术兴起的法律问题类型化

AI分身又称“人格蒸馏”,是指利用检索增强生成(RAG)等技术,采集特定自然人的公开文本、音视频或工作数据,通过AI模型训练形成能够模仿其语气、思维模式和知识结构的“技能包”。从技术原理看,此类应用本质上是一种特定领域的知识库构建,其输出的内容高度依赖被模仿者的原始数据质量与数量。综合当前实践,AI对劳动者技能和经验的提取主要引发了以下四类法律问题。

第一类是人格权侵害问题。当AI生成的声音、语言风格或形象足以使相关公众识别到特定自然人时,实质上构成了对该自然人人格标志的数字化利用。民法典人格权编以立法形式保护声音权益,第一千零二十三条第二款规定,“对自然人声音的保护,参照适用肖像权保护的有关规定”。参照民法典第一千零一十八条第二款关于肖像“可识别性”的定义,声音权益的保护前提同样在于具有识别特定自然人的属性。北京互联网法院发布的涉人工智能典型案例中的“殷某某诉某智能科技公司等人格权侵权纠纷案”明确了这一裁判规则。该案例表明,即便AI生成的声音经过了技术处理,只要具备可识别性,就落入自然人声音权益的保护范围。

第二类是个人信息权益侵害问题。“同事.skill”的生成过程高度依赖对离职员工聊天记录、工作文档、邮件等数据的收集和使用。此类数据往往包含大量个人信息,部分可能属于敏感个人信息。依据个人信息保护法第十三条第一款第二项,用人单位可以“按照依法制定的劳动规章制度和依法签订的集体合同实施人力资源管理所必需”为由处理员工个人信息。然而,“人力资源管理所必需”具有严格的边界限制。劳动者在职期间为履行劳动合同所提供的信息,其处理目的应限于劳动合同履行、薪酬发放、社会保险缴纳等直接相关事项。企业将离职员工的历史数据用于AI训练以生成“数字分身”,是否仍属于“人力资源管理所必需”,存在显著争议。从体系解释角度,劳动合同法第八条规定“用人单位有权了解劳动者与劳动合同直接相关的基本情况”,此处“直接相关”应作为限定标准。离职后的AI建模已超出劳动合同履行的必要范畴,难以构成合法的个人信息处理基础。

第三类是劳动权益侵害问题。劳动关系的本质特征在于其兼具人身属性与财产属性的双重构造,劳动者通过让渡劳动力使用权获取劳动报酬,用人单位则通过组织、指挥和监督实现生产经营目标。这种权利让渡始终存在明确的边界,核心在于劳动者出让的是特定时间和范围内的劳动给付行为,而非其自然人的人格性权益本身。劳动者在工作中展现的专业能力、沟通风格、决策模式乃至思维方式,固然与岗位职责密切相关,但这些要素本质上属于个人长期积累的人格化特征,与职务行为产出存在本质区别。当用人单位运用人工智能技术对员工的工作数据进行深度学习和模式提取,进而生成可无限使用、永久存续的数字分身时,实质上是将劳动者的人格要素异化为技术资产,模糊了职务成果与个人权益之间的法律边界。劳动者离职后,其“数字分身”继续承担工作交接、回答问题等职能,实质上构成了对劳动者劳动能力的数字化替代,侵犯了劳动者在劳动关系结束后对其个人数据和人格特征的独有权利。2026年4月,国家互联网信息办公室发布的《数字虚拟人信息服务管理办法(征求意见稿)》第十一条明确将“侵害真人驱动数字虚拟人的真人驱动方个人信息、自主择业等合法权益”列为禁止从事的活动,体现了监管部门对这一问题的关注。

第四类是数据产权归属问题。Skill开发的核心在于“对问题的解构与经验的提炼”,开发者的行业知识与实操经验被封装为可重复使用的数字资产。当企业将员工经验转化为内部Skill时,该Skill的知识产权通常依约定或职务作品规则归企业所有,但员工对其个人经验的原始数据是否享有某种财产性权益,法律上仍属空白。这一问题在劳动者离职后尤为突出,企业继续使用载有劳动者个人经验的AI模型,劳动者能否主张获得相应对价?如果将这些人格化特征视为劳动者的人力资本,则其所有权应当归属于劳动者本人;如果视为职务相关的附随成果,用人单位可能主张一定权益。

二、现有法律框架下的争议解决路径

面对上述法律问题,司法实践首先应在现行法律体系内寻求妥当的解决方案,以便为后续制度完善积累经验。

在人格权保护层面,应准确把握“可识别性”标准。《人民法院报》2025年5月8日7版刊发的《法答网精选答问(第十九批)——人格权专题》明确指出,对自然人声音的保护客体是“自然人的声音本身,即纯粹的声音,既非声音的载体,也非声音中的具体内容”,具体权能体现为依法制作、使用、公开或者许可他人使用自己的声音;任何组织或者个人不得未经许可擅自使用、公开他人的声音。该答问进一步阐释,受到保护的声音应当“足以识别到特定的自然人,具有明显的特征指向性”。据此,在审理AI技能包相关案件时,应重点审查:第一,AI生成内容是否使用了特定自然人的声音、肖像或其他可识别特征;第二,该使用是否获得了自然人的明确授权;第三,AI生成内容是否具备使相关公众关联到该自然人的识别可能性。值得注意的是,民法典第九百九十五条规定的人格权请求权,包括停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、赔礼道歉,不适用诉讼时效的规定。这意味着,即便AI技能包在离职后长期使用,权利人仍可随时主张停止侵害。

在个人信息保护层面,应严格限定“人力资源管理所必需”的适用范围。个人信息保护法第十三条虽为用人单位保留了处理员工信息的豁免空间,但“必需”应作狭义解释。参考《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》所体现的裁判逻辑,对人脸信息等敏感生物识别信息采取严格保护立场,用人单位处理员工敏感个人信息用于AI建模时,即便主张依据第十三条豁免同意,亦应履行告知义务并确保处理目的与劳动合同直接相关。对于离职员工数据的后续使用,因劳动关系已终止,“人力资源管理所必需”的合法性基础随之消灭,企业应重新取得个人同意或具备其他法定事由,否则构成违法处理个人信息。

在劳动法层面,应区分“数字分身”的不同应用场景。若企业在劳动者在职期间即通过劳动合同或规章制度约定,劳动者同意将其工作数据用于AI训练,该约定的效力应受合理性审查。依据劳动合同法第二十六条,用人单位免除自己的法定责任、排除劳动者权利的,劳动合同无效或者部分无效。若企业以格式条款笼统授权其永久使用劳动者数据用于AI开发,实质上排除了劳动者对其个人经验和数据权益的控制权,可能被认定为无效条款。劳动法上的同意必须是基于充分告知的、真实的、可撤销的意思表示,而非依附于劳动关系的不平等合意。更何况,劳动者往往难以预见未来技术发展的程度,当初同意数据使用,并不意味着同意将自己的人格特征永久转化为企业的技术资产。对于离职后的劳动数据资产化现象,因不存在现实的劳动给付行为,不构成劳动关系,但企业使用劳动者人格特征进行商业性利用,劳动者可依据民法典第一千零二十三条、第一千零一十八条主张人格权侵权损害赔偿,或依据个人信息保护法第六十九条主张个人信息权益损害赔偿。

在司法救济层面,应重视人格权禁令制度的预防性保护功能。民法典第九百九十七条创设的人格权禁令制度,允许民事主体在“有证据证明行为人正在实施或者即将实施侵害其人格权的违法行为,不及时制止将使其合法权益受到难以弥补的损害”时,申请法院责令停止有关行为。在AI技术快速迭代的背景下,一旦劳动者的人格特征被封装为Skill并投入商业使用,损害后果往往难以通过事后赔偿完全弥补。因此,劳动者在发现企业未经许可进行AI建模时,可及时申请人格权禁令,防止损害的扩大化和不可逆。

三、从劳动行为保护到劳动者数据产权的制度建构

当前的人工智能技术尚不能完全替代劳动者,但司法政策和立法规划不应仅关注“替代何时发生”,更应关注“替代能力是如何形成的”。每一次AI对劳动者技能和经验的复制,本质上都是对企业数据资产的增值和对劳动者未来就业能力的潜在削弱。面向智能化发展趋势,新型劳动法律制度应当从“保护工作岗位”转向“保护劳动行为”,以每一次具体的人机协同行为为基点,构建可流动、可积累、可救济的权益清单。将这一理念延伸至AI技能复制场景,意味着法律应当承认并保护劳动者对其劳动行为所产生的数据价值享有某种产权性利益。

劳动者的技能和经验在数字时代应当转化为数据产权,这一命题具有充分的法理基础。首先,技能和经验是劳动者在长期劳动过程中通过智力投入和体力付出逐步积累的成果,具有财产价值的潜质。传统劳动法通过工资报酬实现对劳动行为的对价补偿,但工资仅覆盖了劳动行为的即时价值,未能涵盖劳动行为所产生的数据增值。当企业利用AI技术将劳动者经验转化为可重复使用的数字资产时,实质上获得了超出原劳动合同对价的额外利益。个人信息保护法和个人信息保护制度虽提供了防御性保护,但未能赋予劳动者对其数据的积极利用权。数据产权的提出,旨在填补这一制度空白,使劳动者能够参与其劳动数据的增值分配。

从比较法视野观察,欧盟《人工智能法》采用基于风险的方法规制人工智能系统。该法要求雇主在使用高风险人工智能系统时,主动告知工人及其代表他们受人工智能系统影响的情况,并强化工作场所使用人工智能的透明度与评估要求。美国得克萨斯州《负责任人工智能治理法》于2026年1月1日生效,是美国目前最全面的州级AI监管框架之一。在劳动者权益保护方面,该法明确禁止任何人开发或部署“以意图非法歧视受保护阶层”的AI系统,受保护阶层包括种族、肤色、国籍、性别、年龄、宗教或残疾等群体,同时规定“单纯差异性影响本身不足以证明歧视意图”,这为雇主使用AI进行招聘、绩效评估或岗位替代等划定了红线。

对AI技能复制技术的权益挑战,制度建构应贯通劳动关系全过程,在人格特征使用、数据边界限定、离职后约束及产权规则上形成体系化安排。在劳动关系存续阶段,应确立人格特征使用的“知情—同意—获益”机制,要求用人单位采集员工数据用于AI训练前,履行告知义务,明确数据处理目的与范围,根据个人信息保护法关于“按照依法制定的劳动规章制度和依法签订的集体合同实施人力资源管理所必需”的规定,强调用人单位收集和使用员工数据应当经过企业民主程序,在劳动规章制度、集体合同中建立明确的规则。禁止用人单位以格式条款变相取得劳动者人格特征和数据资产的永久性使用权,不得超出劳动合同必要范围进行数据处理。在劳动关系终止以后,应确立离职后的数据使用限制机制,用人单位不得继续使用具有劳动者个人特征的AI模型从事商业活动,确需继续使用的应与劳动者协商并支付合理对价。此外,应探索劳动者数据产权的登记与交易规则,对职务性技能数据则通过集体协商或行业规则建立利益分配机制,构建人机协同劳动场景下的新型权利关系。

人民法院报·7版

责任编辑

刘强

联系电话

(010)67550722

电子邮箱

msss@rmfyb.cn

新媒体编辑

李斯坦

加载中...