Linux 内核项目发布了人工智能辅助代码的官方指南。该文档于 2025 年 12 月 23 日发布到邮件列表,并于 2026 年 1 月 6 日并入官方存储库,从而使 2026 年 4 月 11 日成为广泛报道这一举措的日期。
根据新政策,所有贡献者都必须通过开发者原产地证书(DCO)签署,无论他们是否使用人工智能工具。不允许AI系统本身签名,开发者必须自行确认与GPL-2.0的兼容性。该政策将人工智能编码助手定位为类似于编译器和文本编辑器的工具,将所有法律和技术责任置于人类贡献者身上。
Hacker News 上存在一场关于由受版权保护材料训练的人工智能生成的代码是否可以根据 GPL 重新授权的争论。 OpenAI 和 Anthropic 公司合同中的赔偿条款也成为了讨论的话题,但贡献者签名提供的法律保护尚未在法庭上得到检验。
从:
Linux 内核现在接受人工智能生成的代码,并承担完全的人类责任
【追记(2026年4月14日)】与该政策发布同时,据证实Linux内核事实上的二号人物Greg Kroah-Hartman立即将新政策付诸实践。详情请见编辑部评论文末。
【编辑部评论】
这项官方政策的制定并不是突然改变方向。它的起点是 2025 年 7 月,当时 NVIDIA 内核维护者 Sasha Levine 提交了初稿 (RFC)。位于后来的 2025 年 Linux 内核维护者峰会上,包括 Linus Torvalds 在内的主要维护者进行了讨论并达成了协议。该文档于 2025 年 12 月 23 日发布到邮件列表,并于 2026 年 1 月 6 日合并到 Torvalds 主树中。请注意,2026 年 4 月 11 日不是该政策颁布的日期,而是新闻中广泛报道这一举措的时间。
这项政策的核心是称为“DCO(开发商原产地证书)”的机制是。这允许开发人员将代码提交到一份法律声明,内容是“此代码兼容 GPL-2.0,我有权提交它。”是。 Linux 内核的所有补丁都有这样的声明:Signed-off-by需要标签,但新政策说明确禁止 AI 代理添加此标签(原文用大写字母写着“MUST NOT”)。人工智能不能成为法律声明的主体这是一个完全理性的决定。
值得注意的是新推出的Assisted-by这是一个标签。Assisted-by: Claude:claude-3-opus coccinelle sparse以描述所使用的AI代理的名称和型号版本的格式,如我们明确将人工智能定位为“辅助工具”,而不是“共同开发者”。。此标签是建议,而不是要求。托瓦尔兹本人表达了这样的观点:“恶意提交者不会披露,因此该指南是针对善意的贡献者的”,并且很明显该系统无意执行。
从积极的一面来看,这是AI辅助开发从“实验阶段”走向“主流工作流程”的重要信号。考虑到运行 Linux 的基础设施的规模,从 Android 智能手机到超级计算机,拥有世界上最严格代码审查的项目可以说,它为AI工具的使用铺平了道路,意义重大。
另一方面,也存在潜在的风险。使用受版权保护的材料作为训练数据的人工智能生成的代码是否可以根据 GPL-2.0 重新授权的法律问题仍未解决。是。 OpenAI和Anthropic在其公司合同中包含赔偿条款的事实可以被视为这些公司本身意识到风险的证据。贡献者的签字是否真的可以免除整个项目的责任,还有待法庭质询。
从监管影响来看,这一政策也可以作为模板。预计GitHub、GitLab等平台以及其他开源项目将成为制定类似政策的参考点,并为全行业讨论人工智能生成代码的归属和法律责任提供机会。
从长远来看,这一政策表明一种“不禁止人工智能并让人类负责”的方法是未来人工智能应用的规范模型。它可以在更广泛的背景下提及,不仅在代码开发中,而且作为人类对人工智能生成的内容负责的一种形式。当我们思考人工智能工具迅速扩散的未来治理时,Linux 社区所表现出的这种实用主义值得注意。
【追记(2026年4月14日)】在该政策发布前后,Linux 内核的头号维护者 Greg Kroah-Hartman (GKH) 被证实正在按照该政策设想的方式进行人工智能辅助的错误发现。 GKH 位于其工作树的“clanker”分支中,具有“格雷格赫_clanker_t1000我们运行了一个名为``的 AI 模糊测试工具并检查了 ksmbd/SMB 代码。我们发现了多个潜在问题,包括 EaNameLength 验证差距、缺少边界检查和 mechToken 内存泄漏,并已提交涵盖 USB、HID、WiFi 和 LED 等多种子系统的补丁。所有这些提交都有Assisted-by: gregkh_clanker_t1000标签已添加,并且本政策中指定的归因格式正在按原样实施。 GKH 本人明确向审稿人指出,“请完全不要相信他们,并在接受他们之前确认这一切不是我编造的。”“人工智能提出潜在问题,人类进行审查、编写修复程序并承担责任。”它体现了新政策的理想实践模式。
【术语解释】
GPL-2.0(GNU通用公共许可证2.0版)
开源软件的典型许可证之一。虽然根据本许可证分发的软件可以自由修改和重新分发,但相同的许可证必须适用于衍生作品。 Linux 内核是在此许可证下发布的。
由标签签署
向 Linux 内核提交补丁时所需的描述。基于DCO的法律声明“此代码与GPL-2.0兼容,我有权提交它”。该策略明确禁止 AI 代理添加此标签。
辅助标签
本政策中引入了新的人工智能使用披露标签。通过列出所使用的AI代理的名称和型号版本,将AI定位为“辅助工具”而不是“共同开发者”。列出是建议性的,而不是强制性的。
RFC(征求意见)
在这里,我们指的不是互联网标准文档,而是内核开发的“提案草案”。在制定正式政策或规范之前发布的初步提案,用于征求社区的反馈。
Linux 内核维护者峰会
Linux 内核主要维护者的年度会议,仅限受邀者参加。这是一个就内核开发政策和问题进行讨论和建立共识的地方,最新的人工智能政策也是根据本次峰会的讨论制定的。
修补
用于对现有软件进行更正、添加和改进的代码差异。在 Linux 内核开发中,贡献者将补丁提交到邮件列表,然后由维护者审核并合并。
[参考链接]
开放人工智能(外部)
一家开发ChatGPT及GPT系列的AI公司。关于公司合同赔偿条款的争论中已经提到过这一点。
人择(外部)
人工智能安全研究公司正在开发克劳德。与 OpenAI 一样,它也是有关企业赔偿条款的争论主题。
英伟达(外部)
专注于 GPU 的人工智能/半导体公司。起草本政策的 Sasha Levine 所属公司。
[参考文章]
Linux 内核源代码树获得官方 AI 编码助手政策(外部)
从 2025 年 7 月 RFC 提交到 2026 年 4 月合并的过程的详细细节。它还解释了 Hacker News 上的反应(264 点,173 条评论)以及 Assisted-by 标签背后的命名过程。
Linus Torvalds 刚刚告诉 AI 程序员规则(外部)
结合Linux支持的基础设施规模,详细阐释了该政策的实际意义。它还提到了人工智能导致的代码风格违规,并加强了对维护者的审查。
Linux 内核允许人工智能代码,将责任归咎于人类(外部)
从“以人为导火索”的独特视角来分析政策。他指出,coding-assistants.rst中的行数和Assisted-by标签将作为未来审查决策的材料。
Linux 制定了人工智能生成代码的法律(外部)
Tom’s Hardware 的全面解释。还对比了 Dave Hansen 和 Lorenzo Stokes 之间的争议以及 GZDoom 社区的 AI 保密问题。
Linux 内核刚刚发布了 AI 编码指南。我们其他人应该注意。(外部)
本文将 Linux 问责模型评价为“整个行业的模板”,同时将其与人工智能工具普遍不公开的行业现状进行对比。
Linux 的二把手转向新的模糊测试工具来发现内核错误(外部)
Phoronix 发布的突发新闻。 GKH 将“gregkh_clanker_t1000”模糊测试工具应用于 ksmbd/SMB 代码,Assisted-by报告实际使用该标签的一组提交。
[编者后记]
您可以在多大程度上将您的名字写在使用人工智能工具创建的代码和内容上?
Linux 社区给出的答案是:“它既不是禁止的,也不是免费的;它是一种自由的东西。”人类是有责任的。”这不仅仅是代码开发的问题,也可能是每个从事人工智能工作的人的问题。大家觉得怎么样?
