發表文章

是保護兒童的蜜蘋果,還是侵害隱私的毒蘋果-Apple CSAM計畫爭議

前言:        「 What happens on Your iPhone, stays on your iPhone. 」 這句簡單又強而有力的廣告詞,是 2019 年由蘋果推出,不僅僅是 Apple 重視用戶隱私權的承諾,更是他們對於公司保護使用者隱私能力的自信。然而在 2021 年 8 月,蘋果宣布未來將會推出 CSAM 偵測功能,這一舉動除了大大違反其公司基本價值外,更引起了資訊界的強烈反彈,有6000多個企業或個人,在github發起了公開聯署信,希望蘋果公司撤銷這個計畫, 曾揭發美國稜鏡事件的吹哨者 Edward Snowden 更提到 : 「這個技術能掃描兒童照片,未來可能被用來掃描更多東西。」 。 然而什麼是 CSAM 偵測技術?他與用戶隱私又有什麼關聯? 淺談 CSAM 計畫:                     CSAM 全名為 children sexual abuse material (兒童性虐待材料)蘋果官方對外宣稱,這項技術將用於保護兒童安全,他們會掃描用戶上傳至 icloud 雲端的照片,利用演算法比對是否有關於兒童性虐待之相關照片,藉此來限制相關影像的傳播,甚至通知執法機關寄出者的資料。這項技術更會 應用在 imessage 、 safari 、 spotlight 上 ,若演算法辨識出孩童收到了相關圖片,會進行圖片模糊處理,並會透過 Apple 家庭通知孩童監護人,藉此來保護兒童。   你可能會想說我行得正坐得直,讓他檢查又有什麼關係?打擊犯罪不好嗎? 那你就大錯特錯了!!   引起強烈反彈的原因:         CSAM 計畫的核心是 NeuralHash 演算法,該演算法會將用戶上傳的照片 在使用者裝置 上與第三方 CSAM 資料庫的雜湊值進行比對,蘋果號稱該演算法具有高準確率且比對成功後還會經過後台人工審核,然而 NeuralHash 演算法卻存在了 重大問題 。 看似沒問題、以後說不準: 具有高準確率的 NeuralHash 演算法,只要有足夠的圖片資料庫可供演算法辨識,未來可能會被利用於辨識其他“爭議性”內容的圖片,然而所謂爭議性圖片,可能不是你說的算,它有可能被政府利用來侵犯打壓異議人士,加強對人民的控制。也有很多人對於掃描標準產生質疑,家長若拍下孩童裸體洗澡抑或是戲水的照片,快樂回憶會不會因此變調,手機持