CSAM

專家擔心被利用作監控 - Apple 宣佈兒童保護政策,於 iPhone、iCloud 檢測兒童色情內容

Apple 近期宣佈將實拖「兒童保護」政策,會利用 AI 自動檢測 iPhone、iCloud 內可能存在的兒童色情影像。而這個政策將由美國地區開始使用,並加入即將推出的 iOS 15 更新中。 Apple 指這套 AI 檢測系統,將利用密碼學和 AI 等新技術,透過 Hashing 方式搜尋已知 CSAM  (兒童性侵犯內容) 圖像,而並非直接掃描用戶的照片,宣稱這樣即能保護兒童之餘確保用戶的隱私。 不過有網絡安全專家擔心,這項措施或會允許該公司以其它原因,用來監視數以千萬