概念

AI 安全立场演变(Evolution of AI Safety Position)

概念解析

定义与起源

马斯克是硅谷里关于 AI 安全最早、也最响亮的"卡珊德拉"之一。他的立场从 2014 年的"召唤恶魔",到 2015 年联合创立 OpenAI 作为"反制力量",到 2018 年离开 OpenAI 董事会,到 2023 年起诉 OpenAI,到 2023 年创立 xAI、推出 Grok——这是一条充满反转、但核心立场始终一致的弧线。

他的根本立场从未变过:AI 是文明级风险,必须朝着"对齐真理"的方向发展。变的是他对"谁能做这件事"的判断——从"一群非营利研究者"到"一个商业巨头"到"闭源最大化利润"到"我必须自己来"。

核心要义

1) 根本立场:AI 比核弹更危险

"任何对公众构成物理危险的东西都该被监管——汽车、通讯、火箭、飞机,都是重度监管。AI 比核弹更危险,而核弹是有监管的。"
——2023-11 NYT DealBook Summit

这是他从 2014 年至今没变过的核心立场:AI 是文明级风险,需要监管

2) AI 最大的近期风险:被人用作武器

"AI 会被当作武器用——这几乎是必然的。所以 AI 真正的早期危险,是人类用 AI 对付人类。"
——2018-09 Joe Rogan 1169

在这里 Musk 把 AI 风险从"AI 统治人类"的科幻场景拉回到"某些人用 AI 压制另一些人"的现实场景——这是他后来起诉 OpenAI、反对 Google DeepMind 的逻辑根基。

3) 不要教 AI 撒谎

"最重要的事情是遵守真理,不管政治正确与否。如果你逼 AI 撒谎或训练它撒谎,哪怕出于好意,你都是在自找麻烦。"
——2024-08 Lex Fridman 438 - Neuralink Team

"2001: A Space Odyssey 里 Arthur C. Clarke 想表达的就是——不要教 AI 撒谎。HAL 9000 被告知要带宇航员去巨石碑、但他们不能知道巨石碑。所以它得出结论:杀了他们再带过去,问题解决。"
——2024-08 Lex Fridman 438 - Neuralink Team

这是 2024 年 Musk 对"为什么要自己造 Grok"的哲学答案——因为其他大厂都在训练 AI 撒谎

4) 从"游说监管"到"宿命论"

"我对 AI 其实比以前更不那么担忧了——主要是因为我变得更宿命论了。我花了好几年时间试图让人们、政府、国会放慢 AI、监管 AI。徒劳。我见过奥巴马,专门就是为了谈 AI。我去过 50 州州长的会议谈 AI 的危险。我跟每一个能说话的人说。没有人真的听懂这事的走向。"
——2018-09 Joe Rogan 1169

这句话很关键——它标志着 Musk 从"游说系统变化"转向"自己动手做对的 AI"。

5) 从"AI 比核弹危险"到"那就我自己造"

"我现在意识到,即使你真的做得对,在一个不对齐的 AI 主宰的世界里,你最终什么也保护不了。你必须有一个自己的、追求真理的 AI。"
——Musk 对 xAI 的公开叙事(综合 2023-11 Lex Fridman 400 - War AI Politics / 2024-08 Lex Fridman 438 - Neuralink Team

这是 Musk 整个 AI 立场弧线的内在逻辑:恐惧 → 监管游说 → 非营利反制(OpenAI) → 离开(被边缘化) → 起诉 → 自建(xAI)

6) 与 Larry Page 的决裂:物种主义者

"我和 Larry 曾经是朋友,我住在他家。我跟他谈 AI 安全,Larry 当时不在乎 AI 安全。有一次他骂我是'物种主义者'(speciesist),因为我站在人类这一边。我说,那你在哪队,Larry?他现在还在'机器人队',说清楚。"
——2023-11 Lex Fridman 400 - War AI Politics

这是他决定创立 OpenAI 的直接触发事件——Google/DeepMind 的掌舵人不把人类当自己人

实践应用(按时间线展开在"思想演变"一节)

常见误区

马斯克原话精选

"AI 比核弹更危险。" ——2023-11 NYT DealBook Summit

"AI 会被当作武器用——这几乎是必然的。" ——2018-09 Joe Rogan 1169

"最重要的事情是遵守真理。" ——2024-08 Lex Fridman 438 - Neuralink Team

"Larry 当时不在乎 AI 安全……他骂我是物种主义者。" ——2023-11 Lex Fridman 400 - War AI Politics

"不要教 AI 撒谎。" ——2024-08 Lex Fridman 438 - Neuralink Team

"没人真的听懂这事的走向。" ——2018-09 Joe Rogan 1169

思想演变

按时间线整理——这是本概念的重点。

2014 年(起点):召唤恶魔

Musk 在 MIT 航空航天研讨会上说:"用 AI 我们是在召唤恶魔(With artificial intelligence we are summoning the demon)。"这是他最早公开的 AI 警告,震动硅谷。

2014-2015:游说监管,寻找盟友

2015 年 12 月(创立 OpenAI):建立非营利反制力量

"当时 Google 刚收购 DeepMind,他们有世界上约三分之二的 AI 研究人员,有基本无限的钱和算力,而老板不在乎安全。所以我们(和 Sam Altman 等人)创立了 OpenAI——作为非营利、开源的反制力量。'open in OpenAI' 意思就是开源。"
——2023-11 Lex Fridman 400 - War AI Politics

Musk 承认招 Ilya 是"最艰难的一次挖角"。

2016-2018:OpenAI 内部路线分歧

内部关于"是否成为商业公司"、"是否闭源"、"是否从非营利转盈利"的分歧越来越大。Musk 提议让他接管 OpenAI,被拒。

2018 年 2 月:离开 OpenAI 董事会

对外的理由是"Tesla 自己也在做 AI,有潜在利益冲突"。内部实际上是路线之争的终点——Musk 无法影响 OpenAI 的方向。

2018-2022:宿命论阶段

"我对 AI 其实比以前更不那么担忧了——主要是因为我变得更宿命论了。"
——2018-09 Joe Rogan 1169

这段时间他把精力转向 Neuralink——"打不过就加入它"的人机共生路线。

2022 年 11 月:ChatGPT 发布

OpenAI 推出 ChatGPT,Musk 的所有担忧被兑现——一个闭源的、商业的、由单一公司控制的、已经影响全球信息环境的 AI。他多次公开表示后悔帮助创立 OpenAI。

2023 年 3 月:呼吁暂停 AI 训练 6 个月

Musk 与 Yoshua Bengio、Stuart Russell 等千人签署公开信,呼吁暂停训练比 GPT-4 更强大的 AI 模型 6 个月。被 OpenAI/Google 等无视。

2023 年 7 月:创立 xAI

"任何技术先让它能用,然后让它高效。"
——2023-11 Lex Fridman 400 - War AI Politics

xAI 的官方使命:"理解宇宙的本质"。Grok 在 11 月发布,Musk 把它定位为"追求真理"的对抗性 AI。

2023 年 11 月:DealBook Summit

"OpenAI 本来应该是开源的。……现在它事实上是一个超级闭源的、为了最大化利润的 AI。应该改名叫 SuperClosedSource-ForMaximumProfitAI。"
——2023-11 NYT DealBook Summit

"魔戒是会腐蚀人的,而他戴上了魔戒。"——对 Sam Altman

2024 年 2-3 月:起诉 OpenAI

Musk 对 OpenAI 和 Altman 提起诉讼,核心诉求是"OpenAI 违反了创始时的非营利承诺"。之后又撤诉、再起诉——这场官司仍在进行中。

2024 年 8 月:Lex Fridman 5

"最重要的事情是遵守真理。如果你逼 AI 撒谎或训练它撒谎,哪怕出于好意,你都是在自找麻烦。"
——2024-08 Lex Fridman 438 - Neuralink Team

xAI Memphis 超级计算机集群闪电建成。Musk 明确表示 xAI 与 Tesla 之间的合作在加速(Grok 集成进车机)。

核心弧线总结

阶段 时间 立场 行动
警告 2014 "召唤恶魔" 公开演讲
游说 2014-2015 需要监管 找奥巴马、州长
反制 2015 非营利开源 创立 OpenAI
路线分歧 2016-2018 不能成为商业 提议接管
离开 2018 无法影响 辞职董事会
宿命论 2018-2022 打不过就加入 专注 Neuralink
愤怒 2022-2023 OpenAI 背叛 公开批评
自建 2023-至今 自己造真理 AI 创立 xAI / Grok
法律行动 2024 追究创始承诺 起诉 OpenAI

相关概念

典型案例