為什么蘋果一定要“掃描”你的相冊?
蘋果想要保護兒童,但我們害怕蘋果做的太多……
“阿里員工遭性侵”事件中,因為不具備通話錄音功能,iPhone“意外”卷入輿論,遭到了各路網友的吐槽:
考慮到對隱私的保護,iPhone不提供通話錄音功能也無可厚非。
但意想不到的是,在另一個事件中,同樣是面對隱私問題,蘋果卻做了另外一個選擇。
為了保護兒童,蘋果要“掃描”用戶相冊
這一次選擇源自幾天前蘋果官宣的一則消息。
蘋果表示,為了更好的保護兒童,公司將在iOS 15、watchOS 8、iPadOS 15和macOS Monterey的年底更新中推出3項全新的技術:
第一項技術涉及Siri——當用戶向Siri詢問“如何舉報兒童遭到剝削”等類似問題時,后者會提供相應的舉報途徑;又或者用戶嘗試搜索關于兒童性虐內容關鍵詞時,Siri會出面干預;
第二項技術為“Messanges通信檢測”——Messages 應用的可選通信安全功能,可以在接收或發送色情照片時警告兒童及其父母;
第三項技術涉及照片和iCloud——系統“neuralMatch”將能夠檢測存儲在iCloud照片中的已知兒童性虐內容(CSAM)圖像,從而使Apple能夠將這些情況報告給國家失蹤和受虐兒童中心(NCMEC)。
其中,引起最大爭議的就是第二、三項技術。
比如第三項技術,依據蘋果所對外公布的文件公告,CSAM檢測的應用過程中,在用戶將張照片上傳至iCloud之前,系統會在設備端將本地照片與NCMEC和其他兒童安防組織提供的已知兒童性虐圖像的哈希數據庫進行匹配。
一旦發現相關內容,相關材料會交由人工進行二次審核。
若審核結果確認違法,蘋果將會禁用公司賬戶,并聯系執法部門。
在知乎,有網友@AntDock張哲涵將以上原理畫了出來:
圖 | 源自:知乎網友@AntDock張哲涵的回答
從圖像我們可以清楚意識到,一旦該技術被用在iPhone、iPad等設備中,當用戶將iCloud功能開啟,所有的照片都會被系統“掃描”一遍,可能有些還會進行二次人工審核。
這么一套操作下來,雖然看起來iPhone的出發點是好的,但是用戶還有“隱私”可言嗎?
6000+人簽名反對新技術:這是給蘋果的安全“開后門”
蘋果這邊宣布完消息沒多久,那邊就有人在網上寫了一公開信。
信中寫道,蘋果的意圖是善意的,但它的提議是在系統中引入“后門”,而這個行為可能會破壞對所有蘋果產品用戶的基本隱私保護。
截至目前,這封公開信已經得到了近6500名個人或組織的支持,其中不乏知名安全和隱私專家、密碼學家、研究人員、教授、法律專家等。
比如霍普金斯大學教授、密碼學家Matthew Green,他表示:
這種工具能夠可以幫助查找手機中的兒童色情內容,但想象一下,如果掌握權力的公司或機構獲得了這種系統,會發生什么?
又比如社會組織“民主與技術中心(CDT)”表示:
蘋果公司的變化在事實上是給兒童和所有用戶帶來新的風險,這嚴重背離了蘋果從長期持有的隱私和安全協議。
甚至斯諾登也出來針對此事發表觀點,稱:
不管用意有多好,蘋果都在通過這種方式向全世界輸出大規模監控。如果他們今天可以掃描兒童色情內容,那么明天就可以掃描任何東西。他們毫無征兆地將價值1萬億美元的設備變成了監控設施。
同時,他還在推特上發文呼吁大家去聯名抵制蘋果。
在這封公開信的最后,專家們也對蘋果提出兩點要求:
· 蘋果立即停止嘗試部署所提議的內容監控技術;
· 蘋果發表聲明重申他們對端到端和用戶隱私的承諾。
針對業內的質疑,蘋果也作了新回應,包括系統僅適用于上傳到iCloud的照片,以及會堅定拒絕來自政府的擴展該技術的要求。
而依據這份回應,我們也能夠看出,蘋果是鐵了心要實施這幾項技術。
更甚者,蘋果還明確,將在未來向第三方應用程序開放這三項新技術。
不過,Facebook旗下即時通訊應用WhatsApp負責人Will Cathcart在接受媒體采訪時已經明確拒絕在平臺上采用類似系統,更是在推特上連發數條進行“譴責”,表示:
該方法給世界帶來了以些非常讓人擔憂的東西,因為它是由蘋果構建和運營的一套監控系統,能夠被輕易地用于掃描私人內容,以查找由該公司、或政府決定控制的任何內容。
蘋果高空走繩
回頭再來看整個事件,核心問題在于“科技向善”與“隱私安全”之間的矛盾。
用科技賦能是值得受到認可的,因為它真的能夠做到人工所不能做到的。
比如同樣是兒童性虐照片檢測,谷歌就曾在2018年推出一款名為Content Safety API的內容排查工具包,能夠大規模地識別和報告網絡上兒童性虐待信息材料(CSAM),減輕了分析師的工作負擔,以及將這個工作變得更加有效率。
又比如在國內,基于AI人臉尋人技術,不少被拐兒童得以在十數年,甚至更長時間之后找到回家的路。
但可以注意到,以上兩個案例過程中,并未過多涉及個人用戶的隱私安全,也達到了當初項目啟動的目的。
事實上,為了隱私安全,蘋果也進行了一系列保護措施,比如使用哈希算法進行加密。
但過程中依舊存在被攻破的危險,尤其對于本就沒有設置端到端加密的iCloud而言。屆時,一旦被攻破,黑客就完全可以獲取到用戶的隱私照片。
而即便沒有泄露,一旦出現誤報,就意味著負責二次審核的人工將能夠看到用戶的照片,并且還是無關兒童性虐的照片,這也相當于侵犯用戶隱私了。
不可否認,蘋果這一技術的背后是善意的、是值得被認可的,能夠找出更多潛伏在冰山下、不為人知的兒童性虐惡性事件,但是它現在更需要思考的是,如何在執行“科技向善”的同時,做好與隱私安全之間的平衡。
這就相當于高空走繩,只有找到那個平衡點,蘋果才能把CSAM項目很好地繼續實施下去。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
