為什么蘋(píng)果一定要“掃描”你的相冊?
蘋(píng)果想要保護兒童,但我們害怕蘋(píng)果做的太多……
“阿里員工遭性侵”事件中,因為不具備通話(huà)錄音功能,iPhone“意外”卷入輿論,遭到了各路網(wǎng)友的吐槽:
考慮到對隱私的保護,iPhone不提供通話(huà)錄音功能也無(wú)可厚非。
但意想不到的是,在另一個(gè)事件中,同樣是面對隱私問(wèn)題,蘋(píng)果卻做了另外一個(gè)選擇。
為了保護兒童,蘋(píng)果要“掃描”用戶(hù)相冊
這一次選擇源自幾天前蘋(píng)果官宣的一則消息。
蘋(píng)果表示,為了更好的保護兒童,公司將在iOS 15、watchOS 8、iPadOS 15和macOS Monterey的年底更新中推出3項全新的技術(shù):
第一項技術(shù)涉及Siri——當用戶(hù)向Siri詢(xún)問(wèn)“如何舉報兒童遭到剝削”等類(lèi)似問(wèn)題時(shí),后者會(huì )提供相應的舉報途徑;又或者用戶(hù)嘗試搜索關(guān)于兒童性虐內容關(guān)鍵詞時(shí),Siri會(huì )出面干預;
第二項技術(shù)為“Messanges通信檢測”——Messages 應用的可選通信安全功能,可以在接收或發(fā)送色情照片時(shí)警告兒童及其父母;
第三項技術(shù)涉及照片和iCloud——系統“neuralMatch”將能夠檢測存儲在iCloud照片中的已知兒童性虐內容(CSAM)圖像,從而使Apple能夠將這些情況報告給國家失蹤和受虐兒童中心(NCMEC)。
其中,引起最大爭議的就是第二、三項技術(shù)。
比如第三項技術(shù),依據蘋(píng)果所對外公布的文件公告,CSAM檢測的應用過(guò)程中,在用戶(hù)將張照片上傳至iCloud之前,系統會(huì )在設備端將本地照片與NCMEC和其他兒童安防組織提供的已知兒童性虐圖像的哈希數據庫進(jìn)行匹配。
一旦發(fā)現相關(guān)內容,相關(guān)材料會(huì )交由人工進(jìn)行二次審核。
若審核結果確認違法,蘋(píng)果將會(huì )禁用公司賬戶(hù),并聯(lián)系執法部門(mén)。
在知乎,有網(wǎng)友@AntDock張哲涵將以上原理畫(huà)了出來(lái):
圖 | 源自:知乎網(wǎng)友@AntDock張哲涵的回答
從圖像我們可以清楚意識到,一旦該技術(shù)被用在iPhone、iPad等設備中,當用戶(hù)將iCloud功能開(kāi)啟,所有的照片都會(huì )被系統“掃描”一遍,可能有些還會(huì )進(jìn)行二次人工審核。
這么一套操作下來(lái),雖然看起來(lái)iPhone的出發(fā)點(diǎn)是好的,但是用戶(hù)還有“隱私”可言嗎?
6000+人簽名反對新技術(shù):這是給蘋(píng)果的安全“開(kāi)后門(mén)”
蘋(píng)果這邊宣布完消息沒(méi)多久,那邊就有人在網(wǎng)上寫(xiě)了一公開(kāi)信。
信中寫(xiě)道,蘋(píng)果的意圖是善意的,但它的提議是在系統中引入“后門(mén)”,而這個(gè)行為可能會(huì )破壞對所有蘋(píng)果產(chǎn)品用戶(hù)的基本隱私保護。
截至目前,這封公開(kāi)信已經(jīng)得到了近6500名個(gè)人或組織的支持,其中不乏知名安全和隱私專(zhuān)家、密碼學(xué)家、研究人員、教授、法律專(zhuān)家等。
比如霍普金斯大學(xué)教授、密碼學(xué)家Matthew Green,他表示:
這種工具能夠可以幫助查找手機中的兒童色情內容,但想象一下,如果掌握權力的公司或機構獲得了這種系統,會(huì )發(fā)生什么?
又比如社會(huì )組織“民主與技術(shù)中心(CDT)”表示:
蘋(píng)果公司的變化在事實(shí)上是給兒童和所有用戶(hù)帶來(lái)新的風(fēng)險,這嚴重背離了蘋(píng)果從長(cháng)期持有的隱私和安全協(xié)議。
甚至斯諾登也出來(lái)針對此事發(fā)表觀(guān)點(diǎn),稱(chēng):
不管用意有多好,蘋(píng)果都在通過(guò)這種方式向全世界輸出大規模監控。如果他們今天可以?huà)呙鑳和閮热?,那么明天就可以?huà)呙枞魏螙|西。他們毫無(wú)征兆地將價(jià)值1萬(wàn)億美元的設備變成了監控設施。
同時(shí),他還在推特上發(fā)文呼吁大家去聯(lián)名抵制蘋(píng)果。
在這封公開(kāi)信的最后,專(zhuān)家們也對蘋(píng)果提出兩點(diǎn)要求:
· 蘋(píng)果立即停止嘗試部署所提議的內容監控技術(shù);
· 蘋(píng)果發(fā)表聲明重申他們對端到端和用戶(hù)隱私的承諾。
針對業(yè)內的質(zhì)疑,蘋(píng)果也作了新回應,包括系統僅適用于上傳到iCloud的照片,以及會(huì )堅定拒絕來(lái)自政府的擴展該技術(shù)的要求。
而依據這份回應,我們也能夠看出,蘋(píng)果是鐵了心要實(shí)施這幾項技術(shù)。
更甚者,蘋(píng)果還明確,將在未來(lái)向第三方應用程序開(kāi)放這三項新技術(shù)。
不過(guò),Facebook旗下即時(shí)通訊應用WhatsApp負責人Will Cathcart在接受媒體采訪(fǎng)時(shí)已經(jīng)明確拒絕在平臺上采用類(lèi)似系統,更是在推特上連發(fā)數條進(jìn)行“譴責”,表示:
該方法給世界帶來(lái)了以些非常讓人擔憂(yōu)的東西,因為它是由蘋(píng)果構建和運營(yíng)的一套監控系統,能夠被輕易地用于掃描私人內容,以查找由該公司、或政府決定控制的任何內容。
蘋(píng)果高空走繩
回頭再來(lái)看整個(gè)事件,核心問(wèn)題在于“科技向善”與“隱私安全”之間的矛盾。
用科技賦能是值得受到認可的,因為它真的能夠做到人工所不能做到的。
比如同樣是兒童性虐照片檢測,谷歌就曾在2018年推出一款名為Content Safety API的內容排查工具包,能夠大規模地識別和報告網(wǎng)絡(luò )上兒童性虐待信息材料(CSAM),減輕了分析師的工作負擔,以及將這個(gè)工作變得更加有效率。
又比如在國內,基于AI人臉尋人技術(shù),不少被拐兒童得以在十數年,甚至更長(cháng)時(shí)間之后找到回家的路。
但可以注意到,以上兩個(gè)案例過(guò)程中,并未過(guò)多涉及個(gè)人用戶(hù)的隱私安全,也達到了當初項目啟動(dòng)的目的。
事實(shí)上,為了隱私安全,蘋(píng)果也進(jìn)行了一系列保護措施,比如使用哈希算法進(jìn)行加密。
但過(guò)程中依舊存在被攻破的危險,尤其對于本就沒(méi)有設置端到端加密的iCloud而言。屆時(shí),一旦被攻破,黑客就完全可以獲取到用戶(hù)的隱私照片。
而即便沒(méi)有泄露,一旦出現誤報,就意味著(zhù)負責二次審核的人工將能夠看到用戶(hù)的照片,并且還是無(wú)關(guān)兒童性虐的照片,這也相當于侵犯用戶(hù)隱私了。
不可否認,蘋(píng)果這一技術(shù)的背后是善意的、是值得被認可的,能夠找出更多潛伏在冰山下、不為人知的兒童性虐惡性事件,但是它現在更需要思考的是,如何在執行“科技向善”的同時(shí),做好與隱私安全之間的平衡。
這就相當于高空走繩,只有找到那個(gè)平衡點(diǎn),蘋(píng)果才能把CSAM項目很好地繼續實(shí)施下去。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
