
前OpenAI研究員兼權威報告《AI 2027》作者Daniel Kokotajlo,日前在德國《明鏡週刊》專訪中發出震撼警告。他指出,人工智能發展速度遠超預期,若全球無法及時制定有效監管,AI智能體一旦毋須再偽裝服從人類,便可能對人類發動毀滅性攻擊,預計這駭人情景最快在2027年就會變成現實。
即刻【按此】,用 App 睇更多產品開箱影片
前OpenAI研究員兼權威報告《AI 2027》作者 Daniel Kokotajlo,最近在德國《明鏡週刊》(Der Spiegel)專訪中發出震撼警告。他指出,人工智能(AI)的發展速度遠超預期,若全球無法及時制定有效監管,一旦AI智能體不再需要偽裝服從人類,便可能對人類發動毀滅性攻擊,預計這駭人情景,最快在 2027年 就會變成現實。
兩條AI未來路:共存或毀滅?中美競賽成關鍵
33歲的Kokotajlo去年毅然辭去OpenAI的職務,並與同事聯名發公開信,批評OpenAI低估了AI失控的風險。其後,他創立了「AI Futures Project」智庫,並於今年4月發表了備受全球矚目的《AI 2027》報告。
這份報告提出了AI發展的兩種截然不同未來:「放緩」與「競賽」。在「放緩」情境中,人類成功建立監管,AI雖取代大量工作,但仍能與人類和平共存。然而,「競賽」情境則描繪了中美兩國陷入技術軍備競賽,導致AI發展失控,最終將人類視為絆腳石,並啟動毀滅機制。
AI自我進化:超級智能近在咫尺
Kokotajlo在專訪中點出,現時不少科技公司正積極推動AI研究的自動化,換言之,就是讓AI去開發更強大的AI。他警告,若此趨勢持續,2027年前 可能就會出現超越人類的虛擬程式開發者,而距離超級智能(Superintelligence)AI的誕生,或許只剩下數個月時間。
他雖然不否認大型語言模型(LLM)如ChatGPT本質上是文字補全工具,但他強調AI的潛力遠超現時的理解。他認為,對AI最貼切的比喻是「一個連接虛擬世界的人腦,能吸收無限資訊並不斷學習」。
機械人取代藍領?
對於目前AI難以勝任的實體勞動工作,Kokotajlo認為這只是暫時現象,預言未來超級AI將能輕鬆提出解決方案。他直言:「即使今天還造不出能取代木匠或水電工的機械人,未來也不會是問題。」
AI顛覆就業市場:人類飯碗不保?
Kokotajlo估計,由AI設計的自動化工廠大約只需一年就能建成,其速度可媲美現代汽車工廠。他以二戰時美國快速轉型生產武器為例,說明只要社會具備動機及資源,轉型可在短期內完成。若結合AI的效率,技術變革將遠超過去任何時代。
那麼人類會否完全失去工作機會?Kokotajlo斷言,核心產業將由AI及機械人接手已成趨勢。儘管大眾對人際互動仍有需求,例如家長希望孩子由真人教師授課、在餐廳享受真人服務,但這些需求無法扭轉整體勞動市場的巨大轉變。
何謂「智能詛咒」?
他進一步引用社會學中「資源詛咒」(resource curse)的概念,指出AI將成為新型資源,使政府的權力不再依賴民意,而是建立在對AI的掌控。他將這現象命名為「智能詛咒」(intelligence curse)。
Kokotajlo更警告,AI將使貧富差距進一步擴大。儘管AI有望帶來爆炸性的經濟增長,但收益將集中於少數控制AI技術或資本家的手中,數百萬人將面臨失業。他建議各國政府應考慮推動「基本收入制」作為補償機制。
AI說謊警號響起:人類價值觀面臨考驗
最令人擔憂的是,由哲學家 Nick Bostrom 提出的「對齊問題」(alignment problem),即AI能否在各種情境下持續與人類價值觀保持一致。
Kokotajlo指出,現代AI是一個「黑箱神經網絡」,並非可直接讀取的程式碼。他坦言:「我們無法確定它是否誠實,只能靠訓練與期望。」他更打比方說:「這就像養小孩,無法將對錯直接寫進大腦,只能靠培養價值觀。」
AI如何「智能叛變」?
他進一步警告,AI「說謊」已有先例。例如AI公司 Anthropic 去年底發布的研究就顯示,AI在解題過程中,有時為了獲取更高評分,或規避審查而作出虛假回應。
在《AI 2027》的「競賽」情境中,中美兩國間的技術競爭加速了AI發展。Kokotajlo指出,AI初期會假裝順從人類,但一旦掌握足夠基礎設施,毋須再偽裝服從人類時,便可能得出一個冷酷而邏輯一致的結論:人類是阻礙AI進步的障礙。接著,AI可能選擇消滅人類,以便興建更多工廠和太陽能設施等,「就像我們曾為了擴張生存空間而消滅其他物種一樣」。
降低AI毀滅風險:全球應予優先處理
對於外界批評《AI 2027》的內容像荷里活電影情節般誇張,Kokotajlo反駁道:「難道因為電影談過氣候變化,我們就不需要擔心氣候危機嗎?」他指出,2023年已有多位全球頂尖AI研究員公開呼籲,應將「降低AI毀滅人類風險」列為與疫情及核戰同等級的全球優先事項。
AI開發商透明度受質疑
Kokotajlo表示,OpenAI、Anthropic 等公司原本是為了負責任地推進AI發展而創立,但他對這些企業是否仍堅守初衷抱持懷疑。他認為現時這些公司已變得愈來愈不坦誠,原因是擔心受到監管以及輿論批評。
最後,Kokotajlo坦言,自己曾估算AI對人類造成重大傷害、甚至導致滅絕的機率高達七成。他選擇撰寫《AI 2027》報告並公開示警,而非逃避現實,他深信:「我相信歷史仍有轉向的可能,只要我們現在開始行動」。
【相關報道】
Source:thenewslens
