惹大規模審查疑雲!? Apple 澄清檢測兒童色情圖片只限於 iCloud 不會掃描用戶 iPhone 相簿

| 何兆洋 | 10-08-2021 21:11 |
惹大規模審查疑雲!? Apple 澄清檢測兒童色情圖片只限於 iCloud  不會掃描用戶 iPhone 相簿

日前 Apple 公布,會藉 NeuralHash 審查系統,辨識在 iCloud 的照片有否包含兒童色情圖像,如果被判斷為有的話,會發出警告,甚至會向保護兒童組織和有關當局舉報。消息公布後引來不少爭議,認為有可能侵犯私隱,甚至用於政治用途,Apple 因此再發表 FAQ,澄清一些事項。

  • Apple 只會對在啟用 iCloud Photo 功能時才會啟動檢查機制。對於存放在裝置內的照片,不會進行檢查
  • Message 將備審查兒童帳號附加相片功能,不會對裝置進行檢查
  • 有關計劃首先只限於美國,並在擴展系統時,會對各國家逐一進行法律評估

【相關報道】

Apple 將會推出的新功能名為 NeuralHash 審查系統,當中會以美國國家失蹤與被剝削兒童中心 NCMEC 提供的數據進行比對,若查證資料屬實的話,該 iCloud 帳戶持有人或會移交 NCMEC 及執法部門審理。值得留意的是,Apple 只會對在啟用 iCloud Photo 功能時才會啟動檢查機制,若沒有用 iCloud Photo 則不用擔心。對於存放在裝置內的照片,不會進行檢查。

Apple 也新增制止兒童色情傳播問題,如 iMessage 將備審查兒童帳號附加相片功能,當檢測到發送或收取的圖片有異時,系統會進行模糊處理及彈出警告,而父母 iCloud 帳號也會收到相關通知。這功能只會對接收或傳送出來的照片作檢查,不會對裝置進行檢查。而整個檢查只是在裝置中進行,不會通知 Apple。

另外一些保安專家憂慮,Apple 會向全世界推出大規模審查,而且並非限於兒童色情內容,而是掃描任何事情,例如擔心政府最終會強迫 Apple 加入非 CSAM 照片的雜湊碼到資料庫來作不當目的,例如打壓政治異見分子。Apple 回應表示,有關計劃首先只限於美國,並在擴展系統時,會對各國家逐一進行法律評估。Apple 現時並沒有將系統擴展至全球的日程表。

【相關報道】

Source:Apple

Page 1 of 9