蘋果一直標(biāo)榜自家的手機(jī)及iOS系統(tǒng)在用戶隱私上的牢不可破,甚至不惜跟美國政府打官司。不過現(xiàn)在蘋果改了一個政策,iOS會審查用戶的照片,以致于蘋果都要開始為此統(tǒng)一員工口徑。
本月初,蘋果宣布了一項新政策,將推出名為“neuralMatch”的新技術(shù),它會在圖片上傳到iCloud之前進(jìn)行掃描。如果它找到了匹配的CSAM(兒童性虐待照片),將會通知審核人員檢查。若確認(rèn)存在兒童色情內(nèi)容,那么蘋果方面將關(guān)閉賬戶,并通知美國國家失蹤和被剝削兒童中心。
蘋果這一舉動受到了兒童保護(hù)組織的認(rèn)可,但有更多的人認(rèn)為蘋果審查用戶照片是個不好的苗頭,覺得被植入了后門,擔(dān)心該系統(tǒng)遭到濫用。
蘋果此前解釋過該系統(tǒng)的運作方式,稱這一系統(tǒng)并不能真正“看到”用戶的照片,而是采用“數(shù)字指紋”的技術(shù),通過辨識圖片中的關(guān)鍵信息,與現(xiàn)有的兒童性侵圖像數(shù)據(jù)庫內(nèi)容對比。
雖然內(nèi)部員工都有強(qiáng)烈的反對傾向,但蘋果還是會執(zhí)行這一政策,本周還給員工下發(fā)了最新的備忘錄,要求員工在CSAM后門問題上統(tǒng)一口徑,強(qiáng)調(diào)這一政策只針對iCloud中的CSAM內(nèi)容,不會容忍被濫用。
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡(luò)消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com