AI Deepfake 技術詐騙假冒政府高官!HKCERT 呼籲公眾需提高警覺

| Simon Chan | 27-01-2024 06:33 |
AI Deepfake 技術詐騙假冒政府高官!HKCERT 呼籲公眾需提高警覺

香港電腦保安事故協調中心(HKCERT)呼籲公眾對利用AI Deepfake技術的詐騙行為提高警惕,此次特別發出的呼籲,是由於一名疑似香港特區政府官員的Deepfake廣告影片,在網上引發關注後而發布。

該廣告影片中的官員在投資廣告中發表演講,但香港特區政府隨後否認廣告的真確性,確認影片是利用AI Deepfake技術製作。Deepfake技術通過人工智能合成影像和聲音,製造出難以區分的偽造內容,這次事件中,詐騙者使用香港特區政府官員的臉部外觀和聲音來製作廣告影片。

HKCERT強調,Deepfake技術的普及使得偽造信息更加精細且難以識別,對公眾構成了嚴重的安全威脅。為此,HKCERT建議公眾採取多項保安最佳實踐,以防範這類詐騙。措施包括:對網上影片和錄音保持警惕,仔細審核其真偽;注意分辨是否為Deepfake製作的內容;避免在陌生對話中透露個人敏感信息;謹慎應對來自不明來源的視像通話;在社交平台上避免分享過多個人資訊;對帶有緊急語調或好處的信息保持警惕;通過官方渠道驗證資訊的真實性;以及警惕釣魚攻擊,不隨意點擊可疑連結或附件。

隨著AI技術的發展,Deepfake技術在詐騙案件中的應用日益增多,給公眾的安全帶來了新的挑戰。HKCERT此次警告是為提升公眾對於這種新型詐騙手段的認識和防範能力,以保障個人資料和財產安全。

HKCERT 8 大建議防 Deepfake:

  1. 對於網上的影片和錄音,應該保持謹慎態度,向多方查證當中資訊的真偽;

  2. 加謹留意影片和錄音以分辨是否經由 Deepfake 技術製造。與真實的錄影和錄音相比,大多數 Deepfake 影片和錄音會有聲音和畫面不一致的細微缺陷;

  3. 切勿在陌生對話中透露個人敏感訊息,如密碼、銀行賬戶號碼等;

  4. 避免接聽來自不明來電的視像通話,騙徒可能會藉此收集你的樣貌影像用以製作Deepfake影片;

  5. 避免在社交平台上分享過多個人資訊,尤其是臉部和語音等生物辨識資訊;

  6. 收到帶有緊急語調或有好處的資訊時要更加謹慎和警惕,網上騙徒通常會以這些伎倆來吸引更多的受害者跌入其陷阱;

  7. 如果可行的話,透過其他經過驗證的渠道來查證資訊,例如瀏覽銀行的官方網站以獲取最新的銀行安排;及

  8. 提防釣魚攻擊,切勿點擊或打開任何可疑連結或附件。

Source:HKCERT

Page 1 of 8