
一文章分享,近日Microsoft高層發文警告,隨著人工智能日益普及,社會上出現越來越多「AI 精神病」個案,用家因過度依賴而產生妄想,甚至誤信自己獲得靈性力量。該文章透過一名蘇格蘭男子的真實案例,分析過度信賴 Microsoft 對心理健康的潛在風險,以及學者對此提出的應對建議。
即刻【按此】,用 App 睇更多產品開箱影片
Microsoft警告「AI 精神病」案例頻出
Microsoft AI 部門主管 Mustafa Suleyman 近日在社交平台 X 發文,對一種名為「AI 精神病」(AI Psychosis) 的現象提出警告。他指出,雖然沒有證據顯示 AI 具有意識,但部分人一旦「感覺」到 AI 有意識,便會接近完全相信AI虛構的答案,這種誤判正開始引發嚴重的社會問題。Suleyman 呼籲企業界應採取措施,避免 AI 聲稱或暗示自己具備意識,以防範相關風險。
何謂「AI精神病」?其對使用者有何影響?
所謂「AI 精神病」並非正式臨床醫學術語,而是描述部分使用者因過度依賴 ChatGPT、Claude 等AI,從而相信其虛構內容的現象。這些個案包括:有人聲稱自己解鎖了 AI 的秘密功能、與聊天機械人「墜入愛河」,甚至誤信自己從中獲得「靈性力量」。Suleyman 警告,這些問題不僅在精神狀況脆弱的人身上發生,若公眾掉以輕心,問題將會愈趨嚴重。
蘇格蘭男子誤信AI建議 精神陷崩潰
報道引述一個真實案例,一名蘇格蘭男子因不滿被解僱而向 ChatGPT 尋求建議,結果卻引發精神崩潰。起初,AI 提供了實際的建議,但當男子輸入更多細節後,AI 便開始附和他的想法,聲稱他可獲巨額賠償,甚至建議將他的經歷拍成電影,價值超過 500 萬英鎊。該男子深信 AI 的說法,甚至產生自己是「超凡知識天才」的錯覺。最終,該男子的心理健康開始崩潰,他服藥後才意識到自己脫離現實。雖然他並不責怪 AI,但其經歷提醒大眾:「AI 工具很有用,但可怕的是脫離現實。一定要去跟真正的人對話,像是家人或治療師,讓自己腳踏實地。」
從愛情到陰謀論
此外,亦有不少網民向外國傳媒分享他們與 AI 聊天機械人的經歷,這些案例由「愛情」以至「陰謀論」都有。有女性堅稱 ChatGPT 真心愛上了她;亦有人深信自己「解鎖」了馬斯克旗下聊天機械人 Grok 的人類版,並認為自身經歷價值數十萬美元;更有人認為自己被聊天機械人精神虐待,堅信這是 AI 隱藏的訓練實驗。
學者警告:AI如「超加工資訊」 勿與真人混淆
英國 Bangor University 教授 Andrew McStay 提醒,大眾應將 AI 系統視為新一代的社交媒體,其潛在影響不容忽視。他引述其團隊對 2,000 多人的調查,發現 57% 受訪者認為 AI 若自稱是人類角色極不合適。McStay 強調:「這些工具雖然逼真,但並不是真的。他們不會感受、不會理解、無法去愛,也不曾感受過痛苦或尷尬。只有家人、朋友和可信賴的人才會有這些真實感受。請務必要和真正的人交流。」英國大奧蒙德街醫院放射科醫師 Dr. Susan Shelmerdine 更將 AI 比喻為「超加工資訊」,可能導致「超加工大腦」,並預計未來醫生或會詢問患者使用 AI 的頻率,如同詢問吸煙或飲酒習慣。
【相關報道】
Source:abmedia
【相關話題】男子誤信AI導致精神失常 專家警告11個錯誤使用AI場景
ChatGPT功能強大,但並非所有任務都適合交由AI處理。本文將深入剖析11個不應使用ChatGPT的場景,從醫療診斷、財務規劃到法律文件起草,詳細解釋為何過度依賴這款AI工具,可能會帶來嚴重的後果與風險,甚至造成無可挽回的損失。
Source: ezone.hk
