圖片來源: 

EFF

蘋果公司宣布要暫緩推出備受爭議的兒童安全功能,但是電子前線基金會(Electronic Frontier Foundation,EFF)對於這項決定並不滿意,他們認為蘋果應該完全放棄在用戶手機上掃描兒童內容,才是真正保證用戶隱私,並且遵守原本的全程加密政策。

8月蘋果釋出要審查用戶手機內容的消息,計畫在裝置上偵測兒童性剝削內容(Child Sexual Abuse Material,CSAM),這代表該公司將在裝置,包括iOS、iPadOS與macOS上,主動偵測用戶搜尋和散布兒童色情內容的行為。

除了家長會在兒童帳戶從訊息應用程式,讀取兒童色情內容時收到通知外,iOS與iPadOS還會主動偵測使用者儲存於iCloud上的兒童色情內容,而蘋果公司會在發現並經人工確認後向執法單位告發。同時,該公司也更新Siri和搜尋功能,在用戶查詢兒童性剝削內容時,提供相關的幫助資源。

蘋果公司解釋,藉由運用裝置上機器學習功能,能夠在保護用戶隱私的前提下,打擊兒童性剝削。除了避免兒童受到剝削的侵害,也能限制兒童性剝削材料的傳播。原本蘋果計畫這項針對兒童色情內容的新政策,要隨著iOS 15、iPadOS 15與macOS Monterey在今年上線,並先對美國用戶部署,但是這項新政策卻招來大量公民團體抗議。

雖然打擊兒童性剝削內容是社會共識,但是不少團體認為蘋果跨越保護用戶隱私的界線,EFF就認為這項作法,是在該公司的資料儲存和訊息傳輸系統開了後門,往後便會受到政府壓力,向用戶篩選更多內容,並且檢舉用戶的要求。不只是EFF,還有超過5,500位隱私和密碼研究人員連署反對蘋果為打擊兒童色情,而開啟內容掃描的後門。

面對這些批評與質疑,蘋果公司重申他們所使用的技術,能夠完全保護使用者的隱私,而且也承諾會拒絕任何政府,在這個兒童性剝削審查系統中,要求進行額外的內容審查。不過,顯然各方對於蘋果公司這個回應仍不滿意,批評輿論持續發酵,逼迫蘋果公司在9月3日更新兒童保護政策的實施,決定在接下來數個月的時間,收集更多意見並且進行改進,屆時再重新發布這些功能。

雖然蘋果公司暫緩兒童性剝削內容監控計畫執行,但是EFF仍然認為,蘋果公司唯有完全放棄這個後門,才能向用戶保證服務的隱私與安全。EFF顧慮這項政策實際上創建一個審查基礎設施,使得將來更容易執行更嚴格的監控審查,而且可能使得LGBTQ青年,甚至是虐待家庭中的兒童,暴露在更嚴重的潛在危險中。

因此EFF向蘋果公司喊話,應放棄完全監控計畫,同時也再次向該公司提交放棄該計畫的25,000人連署書,而這是在Fight for the Future和OpenMedia等超過50,000個簽名連署書之後,公民團體對蘋果公司的再次呼籲,要求信守保護用戶隱私的承諾。

熱門新聞

Advertisement