近年 AI 人工智能及機械學習發展一日千里,自從有了 Deepfake,現在有片亦不一定有真相,有人更可能用於不法用途。日前台灣警方逮捕了已引退的 YouTuber「小玉」,指其利用 AI 演算技術 Deepfake,靠換名人臉孔製成成人電影賺取暴利。
- 警方發現有數名網紅、藝人的性愛影片於網絡上流傳,但求證發現均非本人所拍攝
- 經營「台灣網紅挖面」的主嫌為 26 歲朱男,他也是知名 YouTuber 小玉
- 已知變臉影片受害者超過上百人,包括藝人鄭家純(雞排妹)、YouTuber 奎丁、「館長」陳之漢等
【相關報道】
台灣刑事局日前召開破案記者會,偵查第四大隊副大隊長柯志仁表示,警方早前執行網路情蒐時,發現數名網紅、藝人的性愛影片自去年 7 月起於網絡上流傳,但求證發現均非本人所拍攝。警方進一步追查發現,上述影片是從社群軟件 Twitter 粉絲團「台灣網紅挖面」所流出,犯嫌透過人工智能換臉 AI Deepfake 技術,將多名知名網紅、藝人或政治人物的臉部圖像移植到色情片AV女優身上,再後製成色情影片販售得利。
犯嫌先在 Twitter 上發送廣告招攬會員,有興趣者須先匯款支付 400 至 1900 元台幣不等的費用,才能加入其通訊軟件 Telegram 群組會員,得到影片連結雲端網址。專案小組透過科技偵查發現,經營「台灣網紅挖面」的主嫌為 26 歲朱男,他也是知名 YouTuber 小玉,其團隊還會在粉絲團的私密聊天室不時舉辦「票選」或「集資」活動,選出知名人物擔任性愛影片主角。
刑事局說明,Deepfake 中文翻譯成「深偽」或「深假」是一種透過人工智能(AI)技術中的深度學習演算形成的虛假訊息,該技術可以應用於偽冒影像及聲音,只需被仿造對象的大量相片、影片,透過電腦深度學習(deep learning)就可以製造肉眼很難分辨的假影片。
警方初步估計,小玉等嫌至今年 10 月初不法獲利約 1100 萬元台幣(約 307 萬港元),招募會員逾 8000 人,已知變臉影片受害者超過上百人,包括藝人鄭家純(雞排妹)、YouTuber 奎丁、「館長」陳之漢等。
目前台灣相關法律規定對 Deepfake 換臉影片並無任何規範罰則,網紅小玉販售知名女網紅、模特兒及名人換臉A片是否引發後續修法效應,仍是未知之數。
【相關報道】
Source:ettoday