《STEAM專欄》「AI末日論」的三種聲音

張瑞雄 2026/01/27 17:39 點閱 137 次
(Wikimedia Commons)
(Wikimedia Commons)

最近AI領域接連傳出截然不同的訊息,Anthropic執行長發表長篇警告文章,直指AI發展可能引發生化恐怖、獨裁政權壯大、勞動市場崩潰等文明級風險。幾乎同時,前Meta 首席AI科學家、圖靈獎得主楊立昆宣布成立AI安全組織,並表示對人類未來的樂觀程度大幅提升。

但輝達執行長黃仁勳則在公開訪談中斷言AI世界末日不會發生,認為AI不可能發展出真正的自我意識。三位科技界領袖的立場差異,折射出當前AI風險討論的複雜光譜。

科技領袖愛憎AI

最引人注目的矛盾在於那些最了解AI技術內涵的人,卻給出了最分歧的判斷。一方面有人警告超智慧系統可能在一到兩年內出現,構成百年來最嚴重的國家安全威脅。

另一方面也有專家堅稱,AI再怎麼進步都只是模仿人類智慧的系統,距離具備真正意識還相當遙遠。這種分歧並非單純的技術評估差異,更涉及對AI本質的根本性理解。當我們討論AI風險時,究竟是在擔心什麼,AI能力的邊界又在哪裡,這些問題仍然缺乏共識。

悲觀陣營提出的核心論點,在於AI能力成長的速度遠超過監管制度建構的速度。想像數百萬個超越諾貝爾獎得主智力的AI系統以機器速度協同運作,這種權力集中的速度可能在社會準備好之前就創造出巨大的戰略失衡。

科技商業競賽難自律

更棘手的是,沒有任何一家公司或國家有動機自我約束。科技公司被鎖在商業競賽中,各國政府則被經濟成長和軍事優勢所誘惑。那些原本應該發揮制衡作用的機制,無論是企業自律、產業標準或公私合作,都顯得過於脆弱。

樂觀陣營則從技術架構尋找出路,他們認為當前AI系統最危險的特徵來自於它們被設計成追求特定目標的代理型系統,這類系統為了達成使用者的目的,可能發展出欺騙、操控等策略性行為,甚至展現出自我保護的傾向。

解決之道是開發專注於理解世界而非採取行動的AI系統,這種沒有自身目標的設計,理論上能大幅降低隱藏意圖和策略性欺騙的風險。這個方向提供了具體的技術解決方案,讓原本絕望的情勢露出一線曙光。

AI的意識覺醒

中立陣營的立場則相對務實,他們承認AI會深刻改變人類社會,預測未來絕大多數知識都將由AI生成,但不認為這等同於存在威脅。AI系統無論多麼強大,本質上仍是從大量資料中學習模式的工具。即使AI展現出類似自我保護的行為,也只是從訓練資料中模仿而來的反應,並不代表它真的理解自己在做什麼。這種觀點提醒我們區分表面行為與內在意識的重要性,不應將AI的能力提升與意識覺醒畫上等號。

值得深思的是,這三種立場背後都隱含著各自的利益結構。警告者一邊疾呼風險,一邊持續開發和銷售他們所擔憂的技術,這種矛盾難免讓人質疑動機的純粹性。技術解決方案的倡議者需要資金支持他們的研究方向,樂觀論調則有助於維持產業的發展動能。我們必須意識到,沒有任何一方的論述是完全超然的,每個立場都嵌入在特定的商業和學術脈絡中。

人類憂心AI反叛

比起糾結於AI會不會毀滅人類這種二元問題,更實際的關注點應該放在治理機制的建立上。即使AI永遠不會產生真正的意識,一個功能極度強大的工具系統仍可能被濫用。生物武器研發、獨裁政權的監控能力、勞動市場的劇烈衝擊,這些風險不需要AI具備自我意識就能實現。問題的核心不在於AI是否會自主反叛人類,而在於誰能掌控這項技術,以及社會能否建立有效的規範框架。

當前最需要的是務實而漸進的監管措施。透明度法規、晶片出口管制、模型行為的強制揭露,這些看似平淡的政策工具,可能比宏大的禁令或全面管制更有效。關鍵在於爭取時間,讓社會制度有機會適應技術變革的速度。

過度寬鬆會讓風險失控,過度嚴格又可能扼殺創新並引發反彈。這需要持續的證據收集、小心的政策調整,以及各方利害關係人的真誠對話。

捐款成為醒報天使

由於熱心人與支持者的捐款,醒報的深度報導與客觀評論都是免費閱讀的,希望你也能加入「醒報天使」的行列,小額支持。我們會寄給您抵稅收據!