最近,OpenAI的CEO Sam Altman,在美國參議院的聽證會上,呼籲美國政府應該對大型語言模型 (LLM)進行監管,他擔心AI如果欠缺妥善的政策監管,勢必產生不利影響,最終會對世界造成重大傷害。
Sam Altman在準備的證詞進一步解釋對於OpenAI、大型語言模型 (LLM)的爭議及潛在擔憂,他認為OpenAI訓練其模型方式,可能導致誤導信息的傳播,及違反數據隱私法的情況。美國參議員Richard Blumenthal在聽證會上表示,訓練不足的AI的前景非常可怕,並主張必須追究新技術的責任誰屬。
AI監管的重要性
Richard Blumenthal指出,OpenAI的ChatGPT能夠模仿並模擬真實人類互動,他更別出心裁地利用他的聲音訓練AI,生成了今次聽證會的開場白。Sam Altman建議成立一個政府機構來監管AI的訓練和部署,認為這對發展有所幫助,而開發者更應取得許可證和測試的要求,及撤銷發佈超出規格或能力的許可證,例如一些有自我複製能力或能生成有害內容的模型。
規範數據使用和保護個人隱私
Sam Altman亦主張制定規則,規範機器學習工具如何從互聯網收集數據以生成響應,用戶應該能夠選擇不讓AI平台或其他社交媒體公司使用他們的個人數據。這代表,對於AI的管理,不僅需要科技企業的自律,更需要政策層面的明確指導和規範。
Sam Altman的建議顯然是為了解決當前面臨的兩個主要問題,一是如何防止AI的不當應用,包括其可能引發的偽造信息問題、侵犯個人隱私的行為等。二是如何確保AI的透明度和可追溯性,使公眾對其使用有足夠的了解,並能適當地保護自己的權益。
共同努力實現有效AI監管
當然,這也衍生一個問題,即如何制定有效的AI監管政策?畢竟,AI的性質決定其使用的多元性和難以預測性。因此,我們需要建立一個能夠應對這些挑戰的靈活而全面的監管機制。首先,我們需要確定AI應用的合理性和邊界,並且制定相應的法律法規,明確規定何種行為是合法,何種行為是非法。其次,我們需要建立一個強大的監管機構,監管和審核AI的開發和部署。最後,我們需要確保公眾的參與和了解,通過教育和信息共享,讓公眾明白AI的工作原理和可能的影響。
Sam Altman的建議無疑提供了一個值得考慮的思路,而對 OpenAI而言,也是「一為神功,二為弟子」。然而,以上一切也需要政府、企業和公眾的共同努力,才能真正實現對AI的有效監管,並確保其在服務社會的同時,不會對人類的生活和社會帶來危害。
(作者為香港資訊科技商會榮譽會長方保僑。題為編輯擬定。以上內容純屬作者個人意見,並不代表本網立場。)
Source:ezone.hk