同事离职,工作习惯却被装进了AI——这事违法吗?
最近看到一个话题在技术圈和职场圈同时传开:有人把离职同事的工作逻辑、沟通风格、决策习惯整理成一个"skill文件",喂给公司的AI系统,让AI模拟这个人继续输出。有人管这个叫"蒸馏"。
听起来挺科幻。但它确实在发生。
我看到有人在GitHub上公开分享同事的"蒸馏"文件,甚至把这个操作起名叫"同事.skill"。更有意思的是,紧接着有人做了"反蒸馏.skill"——专门用来过滤掉文件里真正的决策逻辑,只留下表面的工作描述。
这让我想到一个法律问题:一个人长期积累的工作方式、分析框架、沟通习惯,算不算知识产权?公司或者同事把这些东西"蒸馏"进AI,算不算侵权?如果你担心自己被蒸馏,有没有实际有效的办法应对?
这几个问题,值得认真梳理一遍。
工作习惯是不是知识产权,得看具体情况先说一个让很多人失望的结论:一般意义上的工作习惯和工作方式,不受著作权法保护。
这背后有一个著作权法的基本原则,叫"思想与表达二分法"。简单说,著作权只保护具体的表达,不保护背后的思想、方法、流程、系统。
你写的一篇分析报告,报告本身的文字是受保护的。但你分析问题时惯用的逻辑框架——比如先拆解法律要件、再对应事实、最后归纳风险——这套方法论本身,任何人都可以学习、复制、使用,不需要经过你的同意。
中国著作权法(2020年修订)第三条规定,著作权保护的是文学、艺术、科学领域内具有独创性并能以一定形式表现的智力成果。工作方式、思维习惯、职业经验,属于思想和方法的范畴,无法落入这个保护框架。
那么,能不能走商业秘密这条路?
理论上可以,但条件苛刻。根据反不正当竞争法(2019年修订),商业秘密需要同时满足三个要件:不为公众所知悉、具有商业价值、权利人采取了保密措施。
一个律师的诉讼分析框架、一个产品经理的需求拆解方法,如果被系统化整理成内部文档、加以保密管理、标注"公司机密",是有可能构成商业秘密的。但现实中,大多数人的工作方式是在日常协作中自然展示的,谈不上保密。同事之间相互观察、学习彼此的工作风格,这本身就是职场运作的常态,很难被认定为商业秘密的侵犯。
有一个更难的问题:员工在工作中形成的专业技能和经验,原则上属于个人的一般知识与技能,本来就不受雇主控制。这是劳动法保护劳动者职业自由的基础逻辑。如果允许公司把员工的工作方式注册为商业秘密,再以此限制离职员工的就业空间,将会严重破坏劳动市场的正常流动。
所以结论是:工作方式通常不构成知识产权,但经过系统整理、明确保密的方法论,有一定的商业秘密保护空间。
“蒸馏"是什么,它在法律上处于哪个位置"蒸馏"本来是一个机器学习术语,指用大模型的输出数据训练小模型,把大模型的"知识"迁移过来。近来这个词被更宽泛地使用,泛指把某个人的专业知识和工作风格,通过整理、描述、示例的方式输入AI,让AI模拟这个人的行为。
技术上,把一个人的工作习惯写成skill文件或prompt,并不直接改变AI模型的权重。这更接近"行为对齐"而非真正的模型蒸馏。但如果进一步用这些数据对模型做微调训练,才是真正意义上的蒸馏,效果更持久。
法律上,这个操作目前处于明显的规则空白区。
今年年初,OpenAI与DeepSeek的争议引发了外界对"蒸馏"合规性的广泛讨论。OpenAI指控DeepSeek通过大规模调用ChatGPT的API获取输出数据,用于训练自己的模型。OpenAI将其定性为违反服务条款的蒸馏行为。这件事还没有进入诉讼程序,但它让"模型对模型蒸馏"的边界问题浮出水面。
把这个框架应用到"同事蒸馏"的场景上:如果公司收集员工的工作记录、邮件、汇报材料,系统整理后用于AI训练,涉及的法律问题至少有两层。
第一层是个人信息保护。根据个人信息保护法,处理个人信息需要具有合法的处理依据,且不得超出与处理目的直接相关的必要范围。员工提交的工作材料,处理目的是完成工作任务,用于AI训练是一种新的处理目的,需要单独告知并取得同意,或者有其他合法依据。未经明确授权将员工工作数据用于AI训练,存在违反个保法的风险。
第二层是人格权与肖像权的延伸。2024年4月,北京互联网法院审理了一起AI声音侵权案,认定未经本人同意利用其声音训练AI并商业使用,侵害了当事人依据民法典人格权编享有的声音权。法院在判决中强调,这类权利受到"精神性人格权"的保护,不能仅凭著作权授权推断声音权的授权。这个案子被最高人民法院列为2025年典型案例,有相当的参考价值。
声音权尚且如此,一个人的认知风格、分析方式能否参照适用,目前没有明确裁判,但逻辑上并非不可探讨。
在skill文件里放"难解方程"有用吗这个问题很有意思,我在网上也看到有人认真讨论过。
原理上,在skill文件或prompt中植入大量干扰内容,比如复杂的数学方程、冗余文本,确实可以增加AI处理的token消耗,拖慢响应速度,甚至干扰输出质量。研究显示,过长的prompt会导致模型对中间内容注意力下降,输出的准确性和稳定性随之降低。在经济上,每次调用需要处理的token数量增加,意味着使用成本上升。
但这个策略有几个明显的问题。
第一,有效性存疑。现代AI系统在处理prompt时有相当的鲁棒性,简单的冗余文本可以被过滤、压缩,甚至在预处理阶段剔除。除非是精心设计的对抗性内容,普通的"难题"很难造成持续性干扰。
第二,法律风险是真实的。如果你在公司AI系统使用的文件中故意植入干扰内容,使系统性能受损,这在法律上可能构成故意破坏计算机信息系统。中国刑法第285条、286条对破坏计算机信息系统罪有明确规定,即使你拥有合法访问权限,超出权限范围的故意破坏行为仍有刑事风险。民事上也面临雇主依据劳动合同主张损害赔偿的可能。
第三,目标错位。即便技术上成功干扰了某个AI系统,也无法阻止他人通过其他途径整理你的工作方式。Skill文件只是载体,真正的"蒸馏"来自日常工作行为本身。
所以,这条路走不通,而且走偏了。
真正有效的防御思路说到底,防止被蒸馏的核心不是对抗技术,而是两件事:管住数据的流向,以及在合同里明确边界。
在数据层面,自己产出的分析框架、方法论文档,不要随意上传到公司的AI系统或第三方平台。对于高度个人化的工作方法,可以选择不在数字化工具中留存完整记录,保持部分工作方式的"隐性"状态。
在合同层面,如果你是一个独立执业者或者合同谈判有一定空间,可以在委托协议、合作协议中明确约定:受托方的工作方法、分析框架、沟通风格等职业特质,不得被用于AI系统训练或模型微调。这个条款在目前的法律框架下有一定效力,尤其是当你能证明这些方法经过长期积累、具有独特商业价值时。
如果你在规范的用人单位工作,对于公司是否收集员工数据用于AI训练,你有权利要求知情和说明。根据个人信息保护法第十三条,超出履行劳动合同直接相关目的的个人信息处理,需要单独取得同意。如果公司通过格式条款模糊授权,这类条款的效力本身存在争议。
从职业安全角度,真正让你不可替代的,不是你的工作方式被保密,而是你能持续输出他人无法复制的判断力。工作方式可以被记录,但判断的背后是经验、价值观和对具体情境的理解,这些东西目前还没有哪个skill文件能完整装下。
一个人的工作方式,说到底是职业生涯积累的产物,既不完全属于个人,也很难被任何人完整据为己有。AI让这个边界变得更模糊,也让法律不得不去追问一些以前从未问过的问题:模拟一个人的认知风格,算不算对这个人的权利干涉?
目前还没有答案。但法律从来都是在新问题出现之后才慢慢成形的。
法律依据《中华人民共和国著作权法》(2020年修订)第三条:本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果,包括:(一)文字作品;(二)口述作品;(三)音乐、戏剧、曲艺、舞蹈、杂技艺术作品;(四)美术、建筑作品;(五)摄影作品;(六)视听作品;(七)计算机软件;(八)符合作品特征的其他智力成果。
《中华人民共和国反不正当竞争法》(2019年修订)第九条第三款:本法所称的商业秘密,是指不为公众所知悉、具有商业价值并经权利人采取相应保密措施的技术信息、经营信息等商业信息。
《中华人民共和国个人信息保护法》(2021年)第十三条:符合下列情形之一的,个人信息处理者方可处理个人信息:(一)取得个人的同意;(二)为订立、履行个人作为一方当事人的合同所必需,或者按照依法制定的劳动规章制度和依法签订的集体合同实施人力资源管理所必需……
第六条:处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关,采取对个人权益影响最小的方式。收集个人信息,应当限于实现处理目的的最小范围,不得过度收集个人信息。
《中华人民共和国民法典》(2021年施行)第一千零二十三条:对姓名等的许可使用,参照适用肖像许可使用的有关规定。对自然人声音的保护,参照适用肖像权保护的有关规定。
《中华人民共和国刑法》(现行)第二百八十六条第一款:违反国家规定,对计算机信息系统功能进行删除、修改、增加、干扰,造成计算机信息系统不能正常运行,后果严重的,处五年以下有期徒刑或者拘役;后果特别严重的,处五年以上有期徒刑。