在網絡平台打機,偶然或會跟其他玩家有言語爭執,有時甚至會被無理謾罵或遭受歧視語言攻擊。早前電競遊戲平台 FACEIT 便推出了一個全新名為「Minerva」 的 AI 系統,可在短時間內對口出惡言的玩家懲罰,甚至直接封帳。
- FACEIT 推出了一個全新名為「Minerva」 的 AI 系統
- 當 AI 認為玩家在遊戲中輸出涉及謾罵或歧視等內容,就會對該發訊者提出警告
- AI 寄出了 9 萬宗警告,並且封鎖了《CS: GO》2 萬名涉及違規的玩家
【科技】
Minerva 由 FACEIT、Google Cloud 與 Jigsaw(前身為 Google Labs)合作研發,經過了幾個月的訓練、調整和測試,將誤判率降到最低之後,在 8 月正式在 FACEIT 旗下遊戲《絕對武力:全球攻勢》(Counter-Strike: Global Offensive;CS:GO)使用。當 AI 認為玩家在遊戲中輸出涉及謾罵或歧視等內容,就會在每場對戰結束後的幾秒內作出判斷,對該發訊者提出警告,並將類似的聊天內容標記為垃圾訊息。
系統運行了大約一個半月,AI 寄出了 9 萬宗警告,並且封鎖了《CS:GO》2 萬名涉及違規的玩家,當中完全毋須人類介入。同時,由 8 至 9 月期間,出現的惡意言論已經降低了約 20%,而傳送惡意言論的玩家數量也減少了 8%。
【科技】
【科技】
Source:pcgamer