【e-zone 專訊】社交網絡對言論的判斷必具爭議性,Facebook 就指接近9成7仇恨言論是由 Facebook 主動移除,而非由用戶報告,於 2019 年至 2020 年,仇恨言論更增長 389% 。
- Facebook 主動發現的仇恨言論增長 389%
- 強調無政治傾向
Facebook 內容政策經理 Manu Gumm 在訪談中指出,主動發現率增長達 389%,其中原因是 Facebook 的人工智能系統更有效判斷出相關言論,她指出,Facebook的《社群守則》中訂明不允許的內容,而 Facebook 對仇恨言論的定義是,根據特徵直接攻擊他人,作出人身攻擊等,她強調這定義是在對外進行大量研究,並諮詢許多獨立專家後得出。
Facebook 表示,按比例計算,用戶在 Facebook 上每看到 1 萬則內容,估計只有 7 至 8 則內容會包含仇恨言論。
【相關報道】Facebook 緬甸、泰國遇挑戰 刪政治討論群組
而 Manu Gumm 認為,對機構、甚至是宗教作健康批評,是可以接受。至於直接攻擊的方式,Facebook 認為,暴力或抹滅人性的言論、有害的刻板印象、貶低性的陳述、蔑視、厭惡或打發、咒罵、呼籲排他或劃清界線。但Manu Gumm解釋,Facebook在制定政策時,會與當地專家、地區代表研究,亦會考慮文化背景,不同語言等因素,她亦提到在全球 15000 人的團隊中,亦有懂廣東話的審查員。
現時 Facebook 團隊中共有超過 35,000 人負責處理人身安全和保安問題,其中超過 15,000 人是內容審查員。問到近年政治言論被關注, Manu Gumm 強調,Facebook政策制定並無考慮政治傾向,但遇到仇恨言論就要按規則執行,保證社群遵從法律,她強調該守則是全球一致。
【相關報道】抵制失效 中小企撐 Facebook 淨利倍升
Facebook 指現時用處理仇恨言論的人工智能技術,主要包理解不同語言的 XLM-R 及能夠從整體的角度檢視帖文,包括圖像、影片還是文字,並同時找出各種違反政策的問題的全文解讀技術 WPIE。
Source:ezone.hk