Apple 近期宣佈將實拖「兒童保護」政策,會利用 AI 自動檢測 iPhone、iCloud 內可能存在的兒童色情影像。而這個政策將由美國地區開始使用,並加入即將推出的 iOS 15 更新中。
Apple 指這套 AI 檢測系統,將利用密碼學和 AI 等新技術,透過 Hashing 方式搜尋已知 CSAM (兒童性侵犯內容) 圖像,而並非直接掃描用戶的照片,宣稱這樣即能保護兒童之餘確保用戶的隱私。
不過有網絡安全專家擔心,這項措施或會允許該公司以其它原因,用來監視數以千萬計的個人設備。