Linux就AI生成代码定下规则:允许Copilot类工具、拒绝劣质AI代码,错误由人类负责
经过数月激烈争论,林纳斯・托瓦兹(Linus Torvalds)与 Linux 内核维护者们终于就 AI 生成代码 制定了明确规则。
开源社区围绕人工智能长期存在的身份危机,终于迎来了一剂务实的解药。本周,Linux 内核项目正式出台覆盖全项目的正式政策:允许使用 AI 辅助编写代码贡献,但开发者必须遵守严格的新披露规则。新准则规定,AI 不得使用具有法律约束力的 Signed-off-by 标签,而是必须新增 Assisted-by(辅助工具)标签以保证透明。最终,这项政策从法律上明确:每一行 AI 生成代码、以及由此引发的任何漏洞或安全问题,责任完全由提交代码的人类开发者承担。
这一决定是在开源界经历数月混乱后做出的,平息了一场在今年 1 月达到顶峰的激烈争论。当时,英特尔的戴夫・汉森与甲骨文的洛伦佐・斯托克斯就内核应如何严格监管 AI 工具产生激烈冲突。托瓦兹以其一贯直白的风格最终终结了这场争论,称全面禁止的讨论是 “无意义的装腔作势”。
托瓦兹的立场构成了新政策的核心理念,且非常直白:AI 只是另一种工具。故意提交垃圾代码的人根本不会去看文档,因此内核应聚焦于让人类开发者承担责任,而不是试图监管他们在本地电脑上运行什么软件。这是一种非常理性、务实的做法,尤其与开源生态其他领域的恐慌形成鲜明对比。
在此之前,各大主流项目对 AI 的态度天差地别。过去两年里,知名 Linux 发行版如 Gentoo,以及历史悠久的 Unix 发行版 NetBSD 都直接全面禁止 AI 生成提交。NetBSD 维护者曾直言,大模型输出的代码因其训练数据版权状况模糊,在法律上是 “被污染的”。
恐慌的核心围绕 开发者来源证书(DCO)。正如红帽去年年底一份详尽分析所指出的,DCO 要求人类从法律上证明自己有权提交代码。由于大模型是在海量开源代码数据集上训练的,而这些代码往往带有 GNU GPL 等限制性许可证,使用 Copilot 或 ChatGPT 的开发者无法真正保证所提交内容的来源。红帽警告称,这可能无意中违反开源许可证,并彻底摧毁 DCO 框架。
除了法律麻烦,项目维护者还在与海量劣质提交做徒劳的斗争。目前开源世界正被社区称为 “AI 垃圾(AI slop)” 的内容淹没。cURL 作者因被大量幻觉代码淹没而不得不关闭漏洞赏金计划;白板工具 tldraw 开始自卫式自动关闭外部 PR;Node.js、OCaml 等项目则出现上万行的 AI 生成补丁,引发维护者关于项目存亡的争论。
未披露的 AI 代码带来的文化冲突更为激烈。去年年底,NVIDIA 工程师、内核维护者萨沙・莱文被曝在未披露的情况下,向 Linux 6.15 提交了完全由大模型生成的补丁(包括更新日志),引发社区强烈反弹。尽管代码可用,但经过审查和测试后仍出现性能回退。社区强烈反对开发者在自己并未实际编写的复杂代码上署名,就连托瓦兹也承认该补丁未得到适当审查,部分原因就是它没有被标记为 AI 生成。
Linux 内核并非唯一遭遇未披露 AI 辅助问题的社区。在游戏领域,传奇的《毁灭战士》(Doom)模组社区去年也因此分裂。广受欢迎的 GZDoom 源码移植版长期首席开发者克里斯托夫・“格拉夫・扎尔”・奥克尔克斯被曝使用未披露的 AI 生成补丁。当社区成员指责其缺乏透明度时,他态度轻慢, essentially 告诉批评者 “有本事就分叉项目”。社区直接戳穿他的态度,导致绝大多数 GZDoom 贡献者出走,新的 UZDoom 源码移植版诞生。
GZDoom 事件与萨沙・莱文的争议恰恰说明了 Linux 内核新政策为何至关重要。开发者社区大部分人并非愤怒于使用 AI,而是愤怒于相关的不诚实。通过要求 Assisted-by 标签并强制执行人类责任,Linux 内核试图剥离争论中的情绪因素。托瓦兹与维护者们承认现实:开发者会用 AI 工具加快编码速度,试图禁止它们就像试图禁止某个品牌的键盘一样。
归根结底:代码好就是好。如果是会破坏内核的幻觉式 AI 垃圾,点击 “提交” 的那个人就得向托瓦兹交代。在开源世界,这几乎是最有力的威慑。












评论