歐盟AI監管法案通過 違規罰款最高2.7億港元或以上

| 袁耀坤 | 22-05-2024 17:16 |
歐盟AI監管法案通過 違規罰款最高2.7億港元或以上

歐盟理事會(Council of the EU)於21日正式通過全球首個針對人工智能(AI)技術的監管法案,此法案將根據AI應用對社會構成的威脅進行風險分類,並針對不同風險等級制定相應的監管策略,最早將於下月生效。

風險分類與監管策略

根據綜合路透社等多家媒體報道,此次通過的法案將AI應用按照其對社會構成的威脅分為四個風險等級:不可接受風險(Banned)、高風險(Regulated)、有限風險(Transparency required)和極低風險(Allowed)。

法案明確禁止具有「不可接受風險」的AI工具使用,例如「社會信用評分」系統、實時面部識別監控系統以及在工作場所和學校中的情緒識別系統等。這些系統被認為對公民的基本權利和自由構成嚴重威脅,因此被完全禁止。針對被歸類為「高風險」的AI系統,法案要求其運營商需遵守嚴格的監管規定。這些高風險領域包括航空業、醫療和車輛安全等。這些規定主要針對商業AI服務和應用,而軍事或研究用途的AI則根據具體情況可獲得豁免。

法案還對政府在公共場所使用即時生物辨識監控進行限制,僅在涉及嚴重罪案及預防恐怖襲擊的情況下予以豁免。此外,違反法案的企業將面臨嚴厲的處罰。具體而言,企業若未遵守規定,可面臨750萬歐元(約5,852萬港元)或1.5%營業額的罰款,最高罰款可達3,500萬歐元(約2.7億港元)或全球營業額的7%。

完整法案內容將在歐盟高峰會主席及歐洲議會議長簽署後公佈,最快可能在下個月正式生效。然而,實質的合規期限將逐步實施,其中禁止使用最高風險等級的AI系統規定將在6個月內生效;通用型AI(GPAI)將在法案生效12個月後適用;大部分條款將在 24個月後實施,但一些高風險AI系統的法規就要在生效後36個月適用。

 

 

Source:hketreuters.com

Page 1 of 8