蘋果公司(Apple)周四(8月5日)宣布,它計劃對美國所有的iPhone進行掃瞄,偵測兒童色情圖像,這引起了網絡安全專家的擔憂,他們表示,該計劃可能允許該公司出於其它原因,監視數千萬台個人設備。

消息先由參加簡報會的安全專家洩露出來,隨後,Apple也在官方網誌中證實。

Apple稱,新的掃瞄技術是一項擴大的兒童保護計劃。這套系統一開始只會在美國地區使用,並納入即將發表的iOS 15更新之中。

在網誌聲明中,該公司表示:「新技術將允許Apple檢測存儲在iCloud照片中的已知『兒少性剝削內容』(CSAM)圖像。這將使Apple能向美國國家失蹤暨遭剝削兒童中心(NCMEC)舉報這些情況。」

Apple稱,這套系統將使用密碼學和人工智能新技術,透過Hashing(雜湊)的方式搜尋已知的CSAM圖像,而非直接掃瞄用戶的照片,因此可保障用戶的私隱。

操作上,系統會主動將照片轉換為不可讀取的「雜湊數值」(hashes),在上傳至iCloud圖片庫時,核對是否符合已知的CSAM圖片。

如果系統偵測到超過一定數量的CSAM圖片,Apple將人工審查這些圖片,如果確認照片是非法的,將被舉報給NCMEC。

Apple補充說,該系統不會應用於影片。

NCMEC主席兼行政總裁約翰‧克拉克(John Clark)周四在一份聲明中說:「Apple擴大對兒童的保護,改變了遊戲規則。」

他強調:「現實是,私隱和兒童保護可以共存。」

但是,一些安全專家和研究人員強調,他們支持打擊兒童色情,但該計劃可能帶來重大的私隱問題,並加劇專制國家的言論審查壓力。

據《金融時報》報道,劍橋大學安全工程教授羅斯‧安德森(Ross Anderson)將Apple公司提出的系統描述為「絕對是一個令人震驚的想法」。

他說:「這將導致對我們的手機和手提電腦,進行分布式批量監控(distributed bulk surveillance)。」

當周三(4日)晚間,傳出該提案的消息時,約翰‧霍普金斯大學教授、密碼學家馬修‧格林(Matthew Green)也表示了同樣的擔憂。

格林在Twitter上寫道:「這種工具對於在人們的手機中尋找兒童色情材料,是一個福音。」

「但想像一下,它在專制政府的手中會有甚麼作用?」

格林說:「如果你相信Apple公司不會允許這些工具被濫用,仍有很多值得關注的地方。」

他指出,這種「系統依賴於一個『問題媒體數據庫』,然而作為一個消費者,是無法查看該數據庫的。」

這位專家對美聯社說,他擔心Apple可能會受到其它獨裁政府的壓力,掃瞄其它類型的信息。

目前,微軟已創建了photoDNA,以識別互聯網上的兒童性虐待圖像。Facebook和Google已實施了標記和審查可能非法內容的系統。

《大紀元時報》已聯繫Apple請求置評。#

英文《大紀元》記者Jack Phillips對這份報道作出了貢獻。

------------------

【 堅守真相重傳統 】

📍收睇全新直播節目《紀元新聞7點鐘》:
https://bit.ly/2GoCw6Y

📍報紙銷售點:
https://www.epochtimeshk.org/stores
📍加入會員:
https://hk.epochtimes.com/subscribe
📍成為大紀元Patron,收睇無過濾嘅新聞影片:
https://www.patreon.com/epochtimeshk

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column