AI 技術以機器學習和深度學習網路,以仿似人類的智慧來解決複雜問題;可以大規模處理資訊,識別資訊並提供解答。隨科技發展,越來越多行業及人們使用 AI ,包括進行線上語音型智慧助理 Google Assistant、Apple Siri 或 ChatGPT 等 AI 對話。日前,有研究團隊發現,人類在與提供不實資訊的人型機器人交流後,將約 7 至 8 成機器人所提供的不實資訊,錯誤地指認為真實資訊。
即刻【按此】,用 App 睇更多產品開箱影片
AI 與人類出現「假記憶傳染」?
台大心理系跨國研究團隊發現,人類在與提供不實資訊的人型機器人交流後,將約 7 至 8 成機器人所提供的不實資訊,錯誤地指認為真實資訊;這項研究對大眾與 AI 對話引擎的開發者提出警告。研究也發現,從機器延伸到人的假記憶傳染,似乎是很難避免的,該現象的成因是人們普遍相信有完美記憶的機器人能提供正確的資訊。而根據分析結果,人們應對聊天機器人的輸出內容抱持適度戒心。此外,聊天機器人應儘量不要輸出錯誤的資訊。
研究團隊建議透過 AI 檢核剔除錯誤資訊
如果想要達成上述目標,研究團隊建議,在技術上有幾種不同的實作方式,例如透過 AI 檢核的方式,剔除學習資料中的錯誤資訊,或是讓 AI 聊天機器人透過網路搜尋來先對答案進行事實查核。若機器人無法確認自己答案的真確性,應該直接回答不知道而非聊勝於無地回應。
【相關報道】
Source:中時新聞網