
針對近期引起 AI 業界熱議的「OpenClaw」(俗稱「養龍蝦」)技術,香港科技大學首席副校長郭毅可教授正面回應技術背後隱藏的安全風險。他直言,現時許多 AI 助手在缺乏有效治理的情況下自主操作,本質上已淪為「執行孤島」,其潛在的越權行為極難被發現或防範。為此,HKGAI 提出「ClawNet」人機共生責任框架,目的是引領 AI 從單純的「能做事」,進化為「做被允許的事」。
郭教授強調,真正的人機共生應建立在嚴謹的責任契約之上。雖然機器在高速執行與海量記憶方面具備天然優勢,但人類必須擔負起設定邊界與進行價值判斷的重任。ClawNet 的核心願景,在於建立一個安全、由人類全面管理與監督的智能體網絡,而非將最終決策權隨意移交予不受控的程式。
破解執行孤島隱患 賦予 AI 追責身份
目前主流的 AI 助手多屬於「無身份」的個人工具,其運算過程缺乏透明度,且往往擁有過高的執行權限。一旦發生越權行為或錯誤操作,現有體制根本無法有效追溯責任。ClawNet 框架則主張建立「有身份」的人機共生網絡。在該框架下,AI 代理必須擁有明確的數位身份方可獲得授權,而授權機制則是劃定行為邊界的關鍵,確保每一項行動皆有跡可循。
郭教授進一步指出,理想的系統應具備「人、代理、網絡」三位一體的治理解構。當中,「人」代表個人或組織的身份,「代理」負責在授權範圍內自主執行,而「網絡」則肩負約束與治理的重任。透過這種協同交互(Collaborative Interaction),人類能指揮 AI 在特定範圍內完成複雜任務,從而實現人與智能體的和諧共生,避免技術脫軌。
十年發展四原則 打造社會服務智能入口
面對外界對 AI 代理權限失控的憂慮,郭毅可教授歸納出未來十年 AI 系統不可或缺的四大指標:系統必須做到「可檢查、可中斷、可追溯、可治理」。這套準則在防止 AI 協作在缺乏監管的情況下失控,確保技術始終被約束於法律與道德的範疇內,服務於社會大眾。
ClawNet 不僅是安全防護框架,更被定位為社會服務的智能入口。該網絡計劃整合多種專業代理,包括協助政府處理民政說明與政策解讀的「社會服務代理」,以及在法律、金融及教育場景中提供受監管協助的「個人代理者」。透過 ClawNet 網絡,不同代理者之間可互相協作,並在人類監督下完成複雜的社會化任務,為市民日常生活提供安全可靠的智能支援。
Source:ezone.hk、HKGAI
