Check Point《2025 AI 安全報告》揭 AI 助長網絡犯罪「數碼分身」或成新威脅

| 李兆城 | 16-05-2025 16:35 |
Check Point《2025 AI 安全報告》揭 AI 助長網絡犯罪「數碼分身」或成新威脅

隨著人工智能(AI)技術的飛速發展並在各行各業普及,其潛在的濫用風險亦日益受到關注。Check Point 近日發布其首份《AI 安全報告》,剖析網絡犯罪分子如何利用 AI 技術作為武器,並為企業及網絡安全從業員提供一系列應對新型威脅的防禦建議與實踐策略。

報告指出,生成式 AI 和大型語言模型(LLM)的廣泛應用,正導致數碼世界的真假邊界日益模糊。網絡犯罪分子正積極利用這些技術大規模地偽造身份,嚴重破壞公眾對數碼身份的信任基礎。如今,普通網絡用戶已難以單憑表面資訊來判斷其在網絡上接觸到的內容(不論是文字、聲音還是影像)的真偽。更令人擔憂的是,AI 驅動的深度偽造(Deepfake)技術甚至有能力繞過一些先進的身份驗證機制,使得每個人都有可能成為網絡欺詐的目標。

【延伸閱讀】

AI 驅動四大網絡威脅 身份冒充與假資訊加劇

Check Point 亞太區及日本資訊安全總監 Jayant Dave 對此表示:「網絡犯罪分子迅速採用 AI 技術,並以前所未有的速度重塑網絡安全威脅環境。某些地下犯罪服務組織的技術越發先進,更有迹象顯示『數碼分身』即將崛起。這些 AI 驅動的複製體不但能複製外貌和聲音,更能模仿人類的思想與行為。這並不是遙不可及的未來,而是即將來臨的現實。」該報告歸納出四個由 AI 驅動的關鍵網絡威脅核心領域,均與 AI 高度模仿和操控數碼身份的能力相關。

首先是「AI 加強身份冒充及社交工程攻擊」,犯罪分子利用 AI 生成像真度極高的釣魚電郵、虛假音訊和深度偽造影片,近期便有不法份子利用 AI 合成語音冒充意大利國防部部長的事件。其次是「大型語言模型(LLM)數據下毒與虛假訊息傳播」,黑客可透過操控 AI 模型的訓練數據,引導其輸出帶有偏見或虛假的內容,例如報告提及一個俄羅斯虛假信息網絡組織「Pravda」的案例中,其 AI 聊天機械人有高達33%的回答內容為虛假敘事。第三是「AI 生成惡意軟件與數據探勘」,犯罪分子利用 AI 技術生成及改良惡意代碼、將 DDoS 攻擊流程自動化,並更有效地處理和轉售被盜數據,例如「Gabbers Shop」等組織便利用 AI 提升數據轉售價值。最後是「AI 模型的武器化與劫持」,從盜取 LLM 帳號到暗網上出現如 FraudGPT、WormGPT 等專為惡意用途定製的「暗黑模型」,顯示 AI 正被用作黑客攻擊與詐騙的商業工具。

【延伸閱讀】

專家倡 AI 感知防禦 強化驗證採混合架構

面對這些由 AI 驅動的新型威脅,Check Point 指出,網絡安全人員應假設犯罪分子已普遍將 AI 融入其攻擊手段,並建議機構採用具備 AI 感知能力的網絡安全框架作應對。具體策略包括:利用 AI 輔助偵測和威脅狩獵,以識別由 AI 生成的攻擊內容,如偽造郵件和深度偽造影片;強化身份驗證機制,採取超越傳統的安全策略,例如實施多重身份驗證,並警惕數碼身份並非絕對可信;以及為網絡安全團隊配備具 AI 感知能力的分析工具,加強對新型攻擊手段的識別與回應能力。

Jayant Dave 補充道:「在 AI 驅動的時代,網絡安全團隊必須結合 AI 和防禦系統,同步對抗網絡犯罪分子。此報告不但揭示了 AI 帶來的新型安全挑戰,更就建構安全、負責任的 AI 環境提供有效建議。」此外,Check Point 亦鼓勵機構採用「混合式網狀架構」(hybrid mesh architecture)的網絡安全策略。報告認為,單靠基於雲端的解決方案已不足以應對現今高度連結世界的複雜性,混合式網狀架構能讓機構更靈活地在不同場景(雲端或本地環境)準確地部署安全檢查點,以確保最佳的效能、成本效益和強大的安全保障。完整的《2025 AI 安全報告》已可供下載,而相關的網上研討會亦可供重溫。

Source:Check Point

相關文章

Page 1 of 9