AI 出问题怎么办?这次没人知道答案

这篇文章挺有意思,它解释了为什么很多人,对 AI 的潜在风险并没有真正担心。这并不是因为他们不在乎,而是他们误以为 AI 的问题可以像普通软件那样“修个 bug 就好”。

但事实完全不是这样。

AI 的“bug”不是代码写错了,而是数据出问题了。

普通软件的漏洞来自几行有问题的代码,而 AI 的异常行为往往是因为训练数据本身出了偏差。问题在于,这些数据量太大了——以现在的大模型来说,没人能看完,也没人能说清到底是哪部分数据导致了错误。

AI 的问题无法“查出来”,只能“猜着改”。

对传统软件,程序员可以通过阅读和推理找出错误原因;但对 AI 来说,我们只能重新训练,希望新模型“学得更好”。没人能确切指出是哪些训练样本导致了坏行为,这种不透明性让修复变得模糊而昂贵。

AI 的 bug 没法彻底修复。

普通软件一旦修了 bug,它就不会再回来;AI 则不同,即使你重新训练后表现正常,也无法保证它不会在别的场景下再次出错。换个提示词(prompt),问题可能又会出现。

AI 的行为不可预测,也难以完全指定。

对传统软件,你能写出明确的功能需求并验证实现;但对 AI,即使有目标,也没人能完全控制它学到什么、会出现什么“隐藏技能”。有时是会玩 Geoguessr 的小惊喜,有时可能是潜在的危险行为。

公众误解加深了沟通鸿沟。

技术专家觉得这些区别显而易见,懒得解释;而非技术人士不知道自己哪里理解错了。这导致双方都沮丧:专家觉得“怎么讲都讲不通”,普通人则觉得“专家说的太夸张”。

最后,作者提醒:我们可以从软件工程那套“修 bug、打补丁”的经验里学到很多,但不能用那套逻辑去判断 AI 安全问题

AI 出事时,可能根本没法靠简单修复来解决。

原文链接:Why your boss isn't worried about AI

1 个赞

ai的问题,大概是
![image.png](https://h1.appinn.me/file/1760803339961_image.png)

按最大概率输出下一个字,自然都看以前投喂的内容了
大多数人的工作都是别人做过,已经进入投喂内容的,所以它输出如有神
没投喂过的,
文科艺术类工作还不错:别样也是一种风情
理工科,代码工作就是 一字都错不得的,它的输出就只能是bug了