針對近期爭議較大的兒童安全功能,Apple 今天邀請多名記者舉辦了一場問答活動。在本次活動中,Apple 確認(rèn)未來將向第三方應(yīng)用程序開放這些功能。在即將到來的 iOS 15、iPadOS 15、macOS Monterey 以及 watchOS 8 系統(tǒng)中,Apple 引入了 3 項(xiàng)兒童安全功能:
● Messages 應(yīng)用
iPhone、 iPad 和 Mac 上的 Messages 應(yīng)用程序中的可選通信安全功能可以在接收或發(fā)送色情照片時(shí)警告兒童及其父母。啟用該功能后,Apple 表示 Messages 應(yīng)用程序?qū)⑹褂迷O(shè)備上的機(jī)器學(xué)習(xí)來分析圖像附件,如果照片被確定為色情,照片將自動模糊并警告孩子。
● 掃描 iCloud 文件
Apple 將能夠檢測存儲在 iCloud 照片中的已知兒童性虐待材料 (CSAM) 圖像,從而使 Apple 能夠?qū)⑦@些情況報(bào)告給國家失蹤和受虐兒童中心 (NCMEC), 這是一個(gè)與該機(jī)構(gòu)合作的非營利組織與美國執(zhí)法機(jī)構(gòu)。Apple 今天證實(shí),該過程僅適用于上傳到 iCloud 照片的照片,而不適用于視頻。
● 額外資源
Apple 將通過提供額外資源來幫助兒童和父母保持在線安全并在不安全的情況下獲得幫助,從而擴(kuò)展跨設(shè)備的 Siri 和 Spotlight 搜索指南。例如,詢問 Siri 如何報(bào)告 CSAM 或兒童剝削的用戶將被指向有關(guān)在何處以及如何提交報(bào)告的資源。
雖然沒有發(fā)布任何官方公告,不過 Apple 表示通過向第三方擴(kuò)展兒童安全功能,以便用戶得到更廣泛的保護(hù)。Apple 沒有提供任何具體示例,但一種可能性是通信安全功能可用于 Snapchat、Instagram 或 WhatsApp 等應(yīng)用程序,以便模糊兒童收到的色情照片。
另一種可能性是, 蘋果 已知的 CSAM 檢測系統(tǒng)可以擴(kuò)展到第三方應(yīng)用程序,這些應(yīng)用程序?qū)⒄掌蟼鞯?iCloud 照片以外的其他地方。
Apple 沒有提供何時(shí)可以將兒童安全功能擴(kuò)展到第三方的時(shí)間表,并指出它仍然需要完成這些功能的測試和部署,該公司還表示需要確保任何潛在的擴(kuò)展不會破壞隱私屬性或功能的有效性。
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 m.netfop.cn All Rights Reserved.
中國網(wǎng)絡(luò)消費(fèi)網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復(fù)制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com