Hotdry.

Article

AI 生成代码的版权归属与法律边界:开发者必须知道的事

分析 Claude Code 等 AI 编程工具生成代码的版权归属问题,探讨人类创作贡献标准、雇佣合同影响与开源许可证风险。

2026-04-29ai-systems

如果你在本周交付了代码,其中一部分很可能是由 AI 编写的。这部分代码在法律上究竟归谁所有?这个问题的答案远比大多数开发者想象的更加复杂,而答案取决于三个与代码质量无关的因素:你是否做出了足够的人类创造性贡献、你的雇佣合同如何规定工作成果归属、以及模型是否从 GPL 授权的训练数据中污染了你的代码库。

2026 年 3 月 31 日,Anthropic 在一次常规软件更新中因配置文件缺失,意外发布了 512,000 行 Claude Code 的源代码。在代码被镜像到 GitHub 之前的短短几个小时内,一名开发者使用 AI 工具将整个代码库重写为 Python 版本,这个名为 "claw-code" 的仓库在一天内获得了 100,000 颗 GitHub 星标,创下历史上最快的增长纪录。随后是 DMCA 删除通知,然后是一个没有人能给出明确答案的问题:如果 Claude Code 如 Anthropic 自己的首席工程师所承认的那样,主要是 Claude 自己编写的,那么 Anthropic 是否真的拥有它?你能对一部版权法可能不保护的作品发出 DMCA 删除通知吗?

这个事件将关于 AI 生成代码所有权的每一个悬而未决的问题压缩到了一个新闻周期中,同样的问题也适用于你自己的代码库。

版权法的基础:只保护人类的创作

法律底线用通俗的话来说就是:版权只保护人类创作的作品。美国版权局一直坚持这一立场,DC 巡回法院在 Thaler 案中维持了这一立场。2026 年 3 月,最高法院拒绝审理 Thaler 案的上诉,但这并不是对下级法院推理的认可,也不是在全国范围内解决这个问题。拒绝受理意味着法院选择不审理此案,仅此而已。这意味着 DC 巡回法院的裁决依然有效,版权局的立场保持完整,目前还没有法院做出相反的判决。根据现行法律原则,主要由 AI 生成且没有实质性人类创作的作品不符合版权保护资格,这一立场是稳定的,尽管尚未最终确定。

需要特别注意 Thaler 案的两个重要限制。首先,该案涉及一幅完全零人类参与创作的画作。Thaler 将 AI 系统列为唯一作者,完全没有声称有任何人类创作贡献。该裁决并未直接解决一个更棘手的问题:涉及 AI 辅助工作的案件,其中有人类参与但参与程度存在争议。其次,Thaler 案涉及视觉艺术。目前还没有法院将人类创作 doctrine 专门应用于 AI 编程工具生成的代码输出。逻辑是通用的,但直接判例尚不存在。

对于开发者而言,这意味着 Claude Code 或 Cursor 生成的你未经实质性修改就接受的代码,可能任何人都无法获得版权。如果竞争对手复制了它,你可能没有法律追索权,因为该代码在除名之外的所有方面都属于公共领域。

什么是 “有意义的人类创作”

决定你的代码是否受保护的短语是 “有意义的人类创作”,版权局故意拒绝用百分比或修改次数来量化它,因为法院寻找的是人类做出真正创造性决策的证据:选择架构、决定拒绝什么、重构输出以适应特定设计。仅仅向模型指定一个目标是不够的,真正重要的是指导工作如何构建。

在代理式工作流程中,这个区别比听起来更难确立。一个典型的 Claude Code 会话是这样的:你写一个一行提示 “构建一个 API 速率限制模块”,Claude Code 规划方法,生成五个文件,并迭代三个版本,你审查输出,运行测试,然后合并。你在这个过程中的贡献是你的架构意图和最终批准。这在法庭上是否构成有意义的人类创作是一个尚未解决且没有明确法院判决的问题。

诚实的答案是:对于你实质性重定向的模块可能是肯定的,对于你原样接受的代码可能是否定的,对于两者之间的一切都不确定。中立地带目前正在积极诉讼中。在 Allen v. Perlmutter 案中,艺术家 Jason Allen 正在挑战版权局拒绝为他使用超过 600 个详细提示并在 Photoshop 中进行后续编辑创作的作品进行注册。版权局承认 Photoshop 编辑是人类创作的,但仍拒绝为 AI 生成的基础元素进行注册。该案尚未做出判决,无论它决定什么,都将是关于人类参与程度问题的最接近的裁决。

现有最接近的部分保护先例是 Zarya of the Dawn,这是一部图形小说,版权局为其中的人类创作文本授予了注册,但拒绝了 Midjourney 生成的图像。这一决定确立了一个开发者现在就可以使用的实际原则:AI 辅助代码库中的人类创作元素可以单独受到保护,即使生成的代码本身不受保护。你的架构文档、你的设计决策记录在提交消息中、你的 ADR、你的提示日志显示 deliberate 重定向 —— 这些可以作为人类创作表达受到保护,即使它们产生的代码不受保护。从你能保护的东西开始,方法是记录你实际做了什么。

雇佣合同与工作成果归属

在你考虑你的代码是否受版权保护之前,有一个更直接的问题:即使它是受保护的,它实际上是你的吗?

你的雇佣合同几乎肯定说你在这里构建的任何东西都属于你的雇主。版权法中这个原则有一个名称:职务作品 doctrine。根据它,在雇佣范围内由员工创建的任何代码都归雇主所有,雇主被视为法律作者,无论代码是手写的、由 Claude Code 编写的,还是某种组合。在工作时间、工作项目、工作机器上使用 AI 编程工具都不会改变结果的所有者。

大多数雇佣合同比该 doctrine 的默认值走得更远。在你的合同中寻找一个名为 “知识产权”、“IP 分配” 或 “工作产品” 的部分。打开合同,搜索这些条款,并仔细阅读该部分。几乎肯定涵盖你的 AI 辅助代码的条款包括:“使用公司设备或资源创建的任何工作产品”、“雇佣期间任何发明或开发”、“使用公司许可工具创建的任何软件”。

第三个条款是值得注意的。如果你的雇主为团队许可了 Claude Code、Cursor 或 Copilot,而你使用相同的工具构建一个副项目,一个广泛的 IP 分配条款可能会给你的雇主对该项目的主张,即使你是在自己的时间构建的。

一位旧金山的高级开发者早在今年就描述了这种情况。他曾将 Claude Code 用于工作项目和一个在晚上和周末构建的个人健身追踪应用。他的公司更新了 IP 政策,并声称他在 AI 辅助下构建的所有东西,包括那个个人应用,都属于公司,理由是 Claude 可以访问 IDE 中打开的工作文件,因此任何 AI 输出都是公司 IP 的衍生作品。

这是这个论点可以延伸多远的最明显例子。他的公司的主张依赖于一个短语:AI 工具对其公司的代码库是 “上下文感知的”。这个论点在法律上不成立,因为 IDE 中的上下文可见性并不使 AI 输出成为附近文件的衍生作品,而且 Claude 看到的东西和它生成的东西之间的联系是概率性的模式完成,而不是复制。但这个论点说明了雇主开始声称什么。如果条款足够广泛,无论 AI 实际做了什么,它都有表面上的有效性。

实际规则是:如果你在构建副项目,使用个人账户、个人机器和你自己付费的工具。完全将雇主的许可工具排除在该工作流程之外。

开源许可证污染风险

即使你拥有你的 AI 生成代码,你可能已经用你看不见的开源许可证污染了它。

AI 编程工具在大量公共代码上进行训练,包括在 GPL、LGPL 和其他 copyleft 许可证下许可的代码。Copyleft 许可证带有具体的义务,随代码一起传播:如果你分发的软件是 GPL 许可代码的衍生作品,你必须在同一许可证下发布你自己的源代码。即使你不知道你合并的代码是 GPL 许可的,这也适用。“我不知道” 不是 copyleft 违规的辩护。

当 AI 工具从其训练数据中复制 GPL 许可代码的实质性逐字部分,而你在未发布源代码的情况下在商业产品中交付该代码,你可能已经创建了一个 copyleft 违规,即使你从未接触过原始仓库。侵权法律标准是实质性逐字复制,而不是功能相似或相似,这个区别很重要:AI 工具生成类似 GPL 代码的代码与 AI 工具逐字复制 GPL 代码是不同的。风险位于该频谱的逐字一端,问题是没有办法知道你的代码库在哪个边界上,而不运行扫描。

chardet 社区争议在 2026 年初让这变得具体。这不是 filed 诉讼,而是开源社区内的一个公开争议,提出了这个问题但没有法律解决。开发者使用 Claude 重写 chardet(一个 Python 字符编码库)并以 MIT 许可证重新发布,争论 AI 重写是 “干净室” 实现,摆脱了原始 LGPL 许可证。

社区争论的法律问题是:如果 Claude 在 LGPL 许可的代码库上训练,其输出复制了该代码的实质性逐字部分,输出能否被视为免许可证?chardet 争议没有干净地解决,没有法院对这个具体问题发出明确裁决。已确定的是,逐字复制 GPL 代码违反许可证,无论它是如何产生的。未确定的是,AI 输出复制训练数据模式是否构成逐字复制。在通过 M&A 咨询公司的律师的工作假设是它可能是的,而且这个假设现在作为收购尽职调查的标准条件出现。

Doe v GitHub 诉讼仍在第九巡回法院审理中,正在询问 GitHub Copilot 是否在违反版权法和 DMCA 第 1202 条的情况下未归因地复制许可代码。地区法院驳回了大部分诉讼,但上诉仍在进行中。无论结果如何,诉讼已经改变了行业行为:GitHub Copilot 添加了重复检测过滤器,收购尽职调查现在通常包括 AI 代码库许可证扫描。

开发者应采取的四个行动

以下是四个具体的行动,不需要律师就能完成。

第一,在 AI 辅助代码库上运行许可证扫描。做得好的工具包括 FOSSA—— 最全面,企业广泛使用;Snyk Open Source—— 适合开发团队工作流程,集成 GitHub;Black Duck——M&A 尽职调查中的标准。每个都会扫描你的代码库,标记与已知开源库匹配的代码,并识别附加的许可证。如果你正在交付商业产品且从未运行过这些,你是在假设的基础上运营。扫描需要一下午,成本低于版权纠纷的第一个小时。

第二,记录你的人类创造性贡献。你证明有意义的人类创作的证据正是你在正常工程工作流程中已经产生的证据。你只是需要故意保留它,而不是让它消失。要保存的内容:描述你改变什么和为什么的提交消息,而不仅仅是 AI 生成了什么。“重构了 Claude 的模块架构,拒绝了初始状态管理方法,从头重写了错误处理” 是有证据的。“添加速率限制模块” 不是。提示日志。Claude Code 和 Cursor 都保留交互历史。导出或截图你做出重大架构决策的会话。设计文档、ADR 或任何早于生成代码并显示你在 AI 构建之前指定了结构的笔记。

第二个提交消息与第一个之间的区别是可行的著作权主张和 “Claude 写了这个” 的干净记录之间的区别。

第三,在构建任何副项目之前阅读你的雇佣合同中的 IP 条款。打开你的合同,搜索 “知识产权”、“IP 分配” 或 “工作产品”,并仔细阅读该部分。具体语言决定你的暴露程度:“工作时间创建的工作产品” 比 “使用公司资源创建的工作产品” 更窄;“与公司业务相关” 比 “任何软件开发” 更窄;“公司许可工具” 是捕获 AI 编程工具的短语,即使在个人项目中。如果条款广泛且你想独立构建,你有三个现实的选择:在开始之前协商书面豁免(在新角色开始时比在雇佣中期更容易),完全使用个人工具在完全个人的时间在个人机器上,或接受主张存在并决定风险是否值得。

第四,在将商业用途之前检查你使用的是哪个 Anthropic 计划。访问 anthropic.com/legal 并比较消费者条款与商业条款。重要的区别是:消费者条款(免费和 Pro 计划):Anthropic 将输出分配给你,但 IP 赔偿更窄,覆盖更少的情况。商业条款(API 和企业):Anthropic 将输出分配给你,并会为你辩护反对源于你经授权使用服务及其输出的版权侵权索赔。

如果你使用免费或 Pro 计划在商业产品中交付 AI 辅助代码,赔偿差距是真实的。API 或企业协议是适当的层级。请注意,两个赔偿都不涵盖你的代码库中许可证污染导致的 GPL 下游违规。这是你的治理问题,用行动 1 中的许可证扫描来解决。

构建工具的公司无法干净地主张其自己 AI 辅助代码的版权,你是否能的主张是否值得认真对待,在它变得相关之前在交易、争议或收购对话中变得相关。从一开始记录他们创造性贡献的开发者与接受三千行 Claude 输出并合并而不审查的开发者处于显著不同的法律位置,即使两者交付了相同的产品。

这个领域有三个是 settled 法律的东西:缺乏人类创作的作品不受版权保护,职务作品 doctrine 无论代码如何生成都适用,以及逐字复制 GPL 许可代码违反许可证。有两个是新兴共识而没有明确法院判决的东西:代理工作流程中多少人类指导足以建立有意义的创作,以及 AI 输出复制训练数据模式是否构成逐字复制。有一个是真正的猜测:这些是否会在近期大规模诉讼化。大多数代码版权索赔从未到达法院。今天不确定问题变得具体的地方是 M&A 尽职调查和机构融资,收购方和投资者已经在将这些作为关闭条件来询问。

如果这些都不适用于你的情况,以上四个行动仍然是值得做的,但紧迫性比文章可能暗示的要低。

资料来源:本文主要参考 Sena Evren 在 Legal Layer 发布的《Who Owns the Code Claude Wrote?》一文,该文详细分析了 AI 生成代码的版权归属问题、雇佣合同影响及开源许可证风险。

ai-systems