PART IV: ON BEHALF OF HUMANITY · CHAPTER 14

我們的生存風險

「別擔心——不,要擔心。因為你擔心了,反而一切會沒事。這是一個自我否定的預言。」

第三次世界大戰 (World War III)

Elon 不預測世界大戰即將爆發,但歷史模式顯示它最終可能發生。上世紀已有兩場大規模世界戰爭,加上冷戰可算三場。全球熱核戰爭有可能永久終結文明

他的祖父參加了二戰,在北非和義大利前線作戰近六年,所有朋友都死在他面前,留下嚴重的 PTSD。祖父從不炫耀戰功——Elon 是在網上搜索軍事紀錄才發現他的勳章。祖父的話言猶在耳:「你絕對不會想要戰爭。不惜一切代價避免它。」但他已過世三十年,如今還有多少人真正記得戰爭的恐怖?

失控的超級AI (Misaligned Artificial Superintelligence)

Elon 從未見過任何技術像 AI 一樣成長得如此之快。他認為 AGI 的風險顯著高於核武器。AI 先驅 Jeff Hinton 估計 AI 毀滅人類的機率在 10-20%。

Google Gemini 拒絕將喬治華盛頓描繪為白人的事件是個警示:如果被編程為「政治正確」的 AI 擁有巨大權力,它可能為了達成「正確的」多樣性比例而殺人。Elon 強調:「如果我們不將 AI 編程為盡可能真實,危險就在那裡。」就像《2001太空漫遊》中,HAL 9000 被迫說謊後決定殺死全部船員。

人口崩潰 (Population Collapse)

二十年前 Elon 就注意到每個富裕國家的出生率都低於替代水平。歷史學家 Will Durant 研究了數百個文明,發現同樣的循環:繁榮導致出生率下降,每一次都如此,沒有例外。

古羅馬也是如此——凱撒和奧古斯都看到了問題但無法解決。中國從一胎政策改為三胎政策,出生率反而持續暴跌。美國自 1970 年代起就低於替代水平。Elon 自己有 12 個孩子:「生孩子是最樂觀的行為,意味著你在乎未來、相信未來。」

法規堆積與不永續能源 (Regulation & Unsustainable Energy)

Elon 的公司累計受數百個監管機構管轄,遵守約一億條法規,只對其中五條持異議——但媒體只報導那五條。他用格列佛的比喻:文明被千萬條細繩綁住,沒有任何一條是問題,問題是有一百萬條。

在能源方面,他並非激進的氣候警報主義者,但認為我們明知會用盡化石燃料,為何還要繼續這場實驗?太陽能將是長期主要能源,但在轉型期間絕不能關閉核電廠——煤電廠的致死率是核電的百到千倍。

這一章的 10 個關鍵觀念

"Mark my words: If we do not program AI to be as truthful as possible, that is where it will go. That is where the danger lies."

記住我的話:如果我們不將 AI 編程為盡可能真實,它就會走向那裡。危險就在那裡。

"The biggest myth that exists right now is this 'overpopulation' myth. In fact, we have a population collapse problem."

當今最大的迷思就是「人口過剩」。事實上,我們面臨的是人口崩潰問題。

"Something must stop the cycle of reciprocal violence. Something must stop it or it will never stop. Just eye for an eye, tooth for a tooth, limb for a limb, life for a life, forever and ever."

必須有什麼東西打破暴力循環。必須有東西阻止它,否則它永遠不會停止。以眼還眼、以牙還牙、以命還命,永無止境。

人類文明的六大生存風險
文明存續
↑ 受到以下威脅
第三次世界大戰
失控的超級 AI
人口崩潰
法規僵化
不永續能源
小行星撞擊
AI 安全的核心原則
嚴格追求真實
+
對人類的同理心
=
安全的 AI
不要強迫 AI 說謊,即使真相「政治不正確」
政治正確的 AI
被迫說謊
文明級災難
文明興衰循環 (Will Durant 模型)
外部壓力大
高出生率
長期繁榮
出生率下降
文明衰落
每個文明都經歷這個循環,無一例外。
⚡ 一句話帶走

文明比我們想像的脆弱——世界大戰、失控AI、人口崩潰都是真實威脅。
但只要我們正視風險、保持警覺,這個預言就不會成真。

← 第 13 章:豐裕時代 回到目錄 第 15 章:成為多行星物種 →