分享好友 健康资讯首页 健康资讯分类 切换频道

吵了几个月,Linus终于拍板,Linux正式为AI代码“立法”:允许用AI,但锅必须人背

2026-04-14 22:281036kr

如果说过去两年,开源社区对 AI 的态度还停留在“争论要不要用”;那么现在,这个问题已经被现实彻底改写成了——如何在不可避免使用 AI 的前提下,把风险降到最低?

就在最近,围绕 AI 生成代码的长期争议,终于在 Linux 内核社区落下帷幕:Linus Torvalds 以及 Linux 内核维护者们,正式制定了一套项目级别的 AI 代码使用规范。

简单来说就是一句话:AI 可以用,但你必须对它的一切负责

Linus 的态度:AI 只是工具,“禁止 AI”毫无意义

过去几个月,Linux 内核社区其实一直处在一种微妙的拉扯中:

● 一边是越来越普遍的 AI 编程工具,比如 GitHub 推出的 Copilot,以及 Claude 等大模型;

● 另一边,则是维护者对代码质量、法律风险以及社区文化的深层焦虑。

争论的爆发点出现在今年年初。当时,来自 Intel 和 Oracle 的内核开发者围绕“是否应该严格限制 AI 代码”发生公开分歧,讨论一度升级为社区层面的激烈对抗。有人主张强监管甚至封禁,有人则认为这不过是技术演进中的正常阶段。

最终,Linus Torvalds 亲自下场,用一句话给这场争论画上句号:“讨论 AI 垃圾代码这件事,其实毫无意义,这完全就是在犯蠢。”

在他看来,AI 本质上和编辑器、编译器一样,只是工具,真正需要监管的是“人”,而不是他们用什么工具。因此,与其试图“禁止 AI”,不如把责任牢牢绑定到提交代码的人身上。

不管用不用 AI,反正谁提交的谁负责

此次新政策最核心的变化,看起来只是一个标签的调整:AI 生成的代码不能使用 Signed-off-by 标签,而必须添加 Assisted-by 标签,以明确标注 AI 参与。

简单介绍一下:在 Linux 的开发流程中,Signed-off-by 一直是一个极具法律意义的标签,它意味着提交者承诺:代码来源合法,且有权提交;而现在,这个标签被明确禁止用于 AI 生成内容,取而代之的是一个新的标签——Assisted-by。

这个调整的目的,其实非常清晰:

● AI 参与必须被明确标注(透明性)

● 最终责任仍然完全归属于人类开发者(可追责)

换句话说,无论代码是你写的,还是 AI 帮你生成的,只要是你提交的:出了 Bug、性能问题,甚至安全漏洞——责任都在你。Linux 社区并没有试图去定义 AI 的“可信度”,而是直接绕过这个难题,把问题重新拉回到最传统的工程原则上:谁提交,谁负责。

为什么开源社区对 AI 如此焦虑?

如果只看表面,很容易把这场争论理解为“老派工程师 vs 现代新工具”的冲突。但实际上,这场争议并不是“技术问题”,而是法律问题。

开源世界长期依赖一个关键机制:DCO(Developer Certificate of Origin),也就是开发者在提交代码时,需要声明:这段代码是我有权提交的。但问题来了——像 Copilot、ChatGPT 这样的 AI,是基于海量开源代码训练的,其中包括 GPL(GNU General Public License)等强限制许可证,以及各种版权不明的数据。

这就会导致一个尴尬局面:开发者其实无法完全证明 AI 生成代码的“来源合法性”。这一点,Red Hat 在此前的分析中曾明确警告:使用 AI 生成代码,可能会在无意中导致开源许可证违规,甚至可能从根本上冲击 DCO 体系。

除了法律风险,还有一个更现实的问题:AI 代码太多了,而且质量参差不齐。开源社区甚至给它起了个名字叫 “AI slop”(AI 垃圾代码)。

这些代码往往看起来结构完整、语法正确,但在逻辑上充满漏洞,甚至夹杂大量“幻觉”。在现实中,也已经发生了不少真实案例:

● cURL 的维护者因被大量 AI 生成的错误报告淹没,不得不关闭漏洞奖励机制;

● 白板工具 tldraw 开始自动关闭外部 PR,以减少无效提交;

● Node.js、OCaml 等项目中,甚至出现过上万行的 AI 生成补丁,引发维护者争议。

最后,其实社区真正无法接受的,并非 AI 本身,而是“隐瞒使用 AI ”的行为。

有一个典型事件发生在 Linux 内核内部:NVIDIA 工程师、内核维护者 Sasha Levin 曾提交了一段完全由大模型生成的补丁,但没有任何 AI 标注。这段代码虽然能够运行,却引入了性能回退问题,并在评审阶段误导了其他维护者。

事后,连 Linus Torvalds 也承认:因为没有标注 AI,这段代码没有被充分审查所以,问题的本质其实很清晰:开源社区不怕你用 AI,但非常反感你“装作是自己写的”。

不只是 Linux,整个开源圈都在“震荡”

类似的冲突并不只发生在 Linux:在经典游戏 Doom 的 Mod 社区中,GZDoom 项目也曾因为 AI 使用问题陷入分裂。

当时,项目负责人 Christoph Oelckers 被发现使用 AI 生成代码却未披露,在面对社区质疑时,他直接“摆烂”:“不满意可以 fork。”结果,社区真的这么做了——一个名为 UZDoom 的新分支迅速出现,大量核心开发者迁移过去,原项目元气大伤。

事实证明,在开源世界,透明性一旦被打破,分裂几乎是不可避免的结果。

对比来看,Linux 内核社区给出的最终答案,其实非常“工程师思维”:代码好不好,比是不是 AI 写的更重要。你可以用 AI 生成代码,但如果代码有问题、如果它是“AI 垃圾”、如果它把内核搞崩了,那么——点下“提交”的那个人,要亲自向 Linus 负责。

在 Linux 的开源世界里,这大概已经是最强的约束机制了。

参考链接:https://www.tomshardware.com/software/linux/linux-lays-down-the-law-on-ai-generated-code-yes-to-copilot-no-to-ai-slop-and-humans-take-the-fall-for-mistakes-after-months-of-fierce-debate-torvalds-and-maintainers-come-to-an-agreement

本文来自微信公众号“CSDN”,整理:郑丽媛 ,36氪经授权发布。

举报
收藏 0
打赏 0
评论 0
网易互娱架构调整,市场负责人王怡调任海外
文 | 贝果树编辑 | 果脯4月14日,网易互娱回应了“网易互娱市场中心负责人网怡离职”的传闻。网易互娱表示上述信息不实,“裁撤营销中台”也属子虚乌有,王怡因个人原因提出调任,已获公司批准。网易互娱发布的内部邮件显示,市场负责人王怡工作地点将调整至海外。原市场中心更名为用户增长中心,原渠道发行中心更名为发行中心。相关组织架构和人员调整工作将在4月内完成。王怡曾任宝洁品牌经理,于2010年加入网易,

0评论2026-04-143

2人干出27亿收入,AI时代的效率神话被刷新了
你敢信吗? 一家一年能做到4.01亿美元营收、净利润高达6500万美元的公司,居然只有2名员工。 这听起来像是在讲天方夜谭,但它却在美国真实地上演了。 它的名字叫MEDVi,干的事情极其简单粗暴——在线上卖减肥药GLP-1。 只用了一年,MEDVi就直接干到了4.01亿美元的销售额,服务了超25万客户,今年甚至喊出了18亿美元的营收目标。 比收入增长更夸张的是效率。行业老大哥Hims & Hers

0评论2026-04-144