德國數字議程委員會(huì )主席認為CSAM計劃讓蘋(píng)果走上“危險的道路”
德國議會(huì )數字議程委員會(huì )主席致信庫克,希望蘋(píng)果重新考慮CSAM計劃。
8月5日,蘋(píng)果公司宣布推出兒童性虐內容(簡(jiǎn)稱(chēng) CSAM)掃描功能,引發(fā)了很多爭議。德國議會(huì )數字議程委員會(huì )主席曼努埃爾-霍弗林(Manuel Hoferlin)表達了對蘋(píng)果大規模監控的擔憂(yōu)。
據外媒Heise Online報道,霍弗林在給蘋(píng)果公司CEO庫克的一封信中提到,希望蘋(píng)果重新考慮其CSAM計劃,表示蘋(píng)果正在走“危險的道路”,同時(shí)在破壞“安全和保密的通信”。
霍弗林信中寫(xiě)道,CSAM工具被認為是“自互聯(lián)網(wǎng)發(fā)明以來(lái),我們所見(jiàn)過(guò)的通信保密堤壩上最大的漏洞”。沒(méi)有保密通信,互聯(lián)網(wǎng)將成為“歷史上最偉大的監視工具”。
盡管CSAM掃描功能目前僅宣布將在美國推出,但霍弗林在信中表示希望蘋(píng)果不要實(shí)施該系統,這樣做既是為了保護社會(huì )數據,也是為了避免蘋(píng)果公司陷入可預見(jiàn)的問(wèn)題。無(wú)論蘋(píng)果是否堅持這一戰略,都可能使蘋(píng)果失去進(jìn)入大型市場(chǎng)的機會(huì )。
據悉,目前CSAM工具用于完成兩個(gè)獨立的任務(wù)。第一個(gè)任務(wù)是iCloud Photos CSAM檢測,即將用戶(hù)上傳至iCloud的圖像與已知CSAM圖像的數據庫進(jìn)行匹配。如果檢測到兒童性虐圖像,數據將發(fā)送給Apple進(jìn)行人工驗證。
第二個(gè)任務(wù)是檢測兒童賬號綁定的設備,父母或監護人帳戶(hù)啟用檢測功能后,當兒童賬戶(hù)發(fā)送或接收色情圖片時(shí),照片將被模糊化,兒童會(huì )被警告,家長(cháng)也將接到通知。
關(guān)于CSAM掃描功能,蘋(píng)果公司一直對外解釋?zhuān)珻SAM掃描不會(huì )分析每個(gè)人iPhone上的照片,而只是對iCloud上照片特征數據進(jìn)行比對。
蘋(píng)果上周還宣布CSAM系統將能夠接受第三方審計。另外蘋(píng)果還強調,如果用戶(hù)不使用iCloud照片,則CSAM檢測過(guò)程就不會(huì )運行。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅動(dòng)創(chuàng )新
