維護兒童安全!蘋果祭出重拳 打擊兒童色虐行為

C:\Users\User\Downloads\laurenz-heymann-wAygsCk20h8-unsplash.jpg
Photo by Laurenz Heymann on Unsplash


蘋果公司與上周四 (8/5) 表示,將在此次 iOS 15 更新中新增 NeuralHash 新機制,能夠自動偵測 iphone 、 iCloud 內潛存的兒童色虐圖片

為了防止兒童色情圖片傳播對兒童的傷害,蘋果公司表示將來會審查、掃描在 iCloud 雲端上的照片,這項功能將會套用在 iOS 15 、 iPadOS 15 、 watchOS 8 以及 macOS Monterey 近期的版本更新中,該審查系統 NeuralHash 會跟美國國家失蹤與受虐兒童中心 (NCMEC) 提供的數據做連結分析比對,或是發現並確認該 iCloud 帳戶有以上內容,將會把該 iCloud 帳戶擁有人送交 NCMEC 及執法部門審理。

C:\Users\User\Downloads\ben-wicks-iDCtsz-INHI-unsplash.jpg
Photo by Ben Wicks on Unsplash

NeuralHash 系統會將用戶裝置上的照片,以及 NCMEC 提供的超過二十萬幅擁有透過雜湊演算 (hash) 生成一串「數碼指紋」的圖片進行比對。蘋果表示透過 NeuralHash 即使是曾經編輯修改過的類似照片也難逃法眼。

此一改動的本意雖為協助保護兒童,但同時也引起新功能被濫用的疑慮,雖然蘋果強調系統只會與 NCMEC 圖庫比對,不會識別像是家長替子女紀錄洗澡等照片,並不會危害一般使用下的隱私安全,但有專家仍認為此舉仍有隱憂。

Photo Credit:蘋果官網

約翰霍普金斯大學密碼學研究員格林說:「利用這套系統,理論上可將透過向無辜的人發送看似沒問題的照片來陷害他們。」

格林也表他很擔憂政府將要求每個人都這麼做,這樣會引起更多憂慮,包括會被政府用來監控國民隱私照片將被蘋果內部使用等等。雖然目前這項措施只在美國執行,但未來也預計會擴展到其他地區。

C:\Users\User\Desktop\蘋果隱私01.jpg
hoto Credit:蘋果官網

蘋果在網絡帖文中表示:「我們想要協助保護孩童,免受以通訊工具來招募並剝削孩童的侵犯者荼毒,並限制兒童性虐待內容 (child sexual abuse material,CSAM) 散布。」

事實上,微軟、 Google 、 facebook 等大企業多年來都有分享已知兒童色情圖像的數碼指紋,蘋果也有用數碼指紋篩查已經儲存在 iCloud 的檔案,但將掃描的動作轉到裝置上執行是前所未有的做法。蘋果表示將會在美國率先推出相關功能,將來會擴展到其他地區。

閱讀更多 

Apple reveals new efforts to fight child abuse imagery

Apple launches major new Racial Equity and Justice Initiative projects to challenge systemic racism, advance racial equity nationwide
蘋果關於此案之聲明Apple計劃今年內推自動偵測相片功能 以打擊兒童色虐行為
蘋果重拳排查手機上兒童色虐圖片的是與非

分享文章