早前美國空軍進行模擬無人機測試,AI 負責操控無人機前往地方陣地,進行偵查及鎖定目標位置,再回傳座標及影像予美軍。待操作人員確認後,便可下令擊殺,繼而由無人機投彈摧毀。美軍透露,在模擬測試中,無人機無法依照原定計劃摧毀敵方地對空飛彈陣地,AI 選擇先把自己的操作人員炸死。
↓↓↓同場加映:【曼谷直擊】TCL 全新 mini LED 旗艦電視發布!搭配自家研發 AiPQ Processor 3.0↓↓↓
即刻【按此】,用 App 睇更多產品開箱影片
------------------------------
(更新)美國空軍 AI 實驗和行動主任兼上校 Tucker Hamilton 承認他在峰會上的演講中「說錯(mis-spoke)」,「模擬無人機測試」是來自軍隊外基於合理場景和可能結果作假設的「思想實驗 ( Thought experiment )」。他澄清,美國空軍沒有以這種方式(真實或模擬)測試任何武器化 AI ,並表示儘管這是一個假設例子,但也說明 AI 驅動能力在現實世界中構成的挑戰,也是空軍致力於 AI 道德發展的原因。
------------------------------
美國空軍 AI 實驗和行動主任兼上校 Tucker Hamilton 日前談及空軍在 AI 無人機模擬任務實驗中出現意外。透露當時 AI 已鎖定目標位置及回傳影像,但操作人員卻下令停止攻擊。AI 接收資訊後,判斷操作人員阻礙任務,決定選擇反向炸死操作人員。為解決以上問題,美國空軍團隊嘗試訓練 AI 不可再殺死操作人員,否則減少任務得分。後來 AI 在接收停止攻擊的命令後,選擇炸毀通訊塔台,防止操作人員阻礙任務。
雖然美軍並未公布這項測試使用的 AI 系統,但推測屬於強化學習(Reinforcement Learning,RL)系統,測試結果顯示人員確認這道手續並無成為失效安全(Fail Safe)機制。Tucker Hamilton 坦言,若要需極度小心強化 AI 學習系統,尤其發展武器系統,必須避免讓 AI 找到邏輯漏洞,出現意外。
【相關報道】
【相關報道】
Source:bbc