【e-zone 專訊】近日聊天機器人 ChatGPT 在互聯網上大受歡迎,該平台能讓用戶以人與人對話的方式提問然後輸出回應,加上生成的答案十分精準及附有詳細解釋,省卻用搜尋引擎後還要自行查閱資料的時間。不過當中亦涉及保安風險甚至版權爭議。
即刻【按此】,用 App 睇更多產品開箱科技影片
香港生產力促進局轄下的香港電腦保安事故協調中心(HKCERT)早前預測,利用 AI 的攻擊及網絡犯罪服務將會是 2023 年五大資訊保安風險之一,當中更羅列多種不法分子如何利用 AI 進行攻擊的可能情況,除上述提到的例子外,還包括 AI 欺詐及毒害 AI 模型。總結 AI 涉及的保安風險有以下幾種:
- 1. 數據私隱和保密:AI需要大量數據進行訓練,其中可能包括敏感信息,如個人詳細信息、財務信息和醫療記錄。這可能引發了隱私問題,因為模型可能會訪問和生成敏感信息。
- 2. 錯誤訊息:AI 為求產生的結果有連貫性及通順,可能會編造虛假或誤導性訊息,用戶慣性倚賴 AI 生成的資料可能會對事實有錯誤的認知。另外,訊息的準確性亦會受到其所接受的訓練數據影響,例如 ChatGPT 的訓練數據只去到 2021 年,所以當問到誰是最近的世界盃冠軍時,它會回答法國(2018 年冠軍),而不是阿根廷(2022 年冠軍);其他錯誤訊息的例子包括在 Google 宣傳其聊天機器人 Bard 的廣告中,被發現它在回答有關「詹姆斯韋伯太空望遠鏡」的問題中包含錯誤的資訊。
- 3. 偏見問題:AI 的訓練數據可能來自互聯網,其中可能包含偏見和歧視。這可能導致模型產生使這些偏見和歧視的回應。此外,不法分子亦可利用偏頗的數據,訓練 AI 模型,令 AI 生成惡意的回應,此手法稱為對抗性干擾。
- 4. 版權問題:考慮第三方的權利都是很重要,例如由 ChatGPT 輸出的回應中可能涉及的受版權保護的資料的擁有人。侵犯他人的權利,包括未經許可使用其受版權保護的資料,可能會導致法律責任。因此使用 ChatGPT 時,要考慮和尊重其開發者和其他人的知識產權,並確保對 ChatGPT 的回應的任何使用都符合適用的法律法規。
【相關文章】
【相關文章】
Source:ezone.hk