CSAM(Child Sexual Abuse Material)は、若者や未成年者を性的虐待や搾取の危険にさらすコンテンツを指す。Appleはユーザーの画像をiCloudにアップロードする前に、デバイス内でNCMEC(米行方不明・被搾取児童センター)や他の組織が提供するCSAMイメージのデータベースにハッシュ照合し、暗号化したバウチャーを作成して共にiCloud Photosにアップロードする。iCloudでは極めて高い精度でCSAMを分類する閾値を設けており、それを超えている画像についてはAppleが手作業でバウチャーの内容を見て一致を確認。問題のあるアカウントの無効化やNCMECへのレポート送信といった対処を採る。Appleによると、CSAM拡散のフラグがアカウントに誤って立てられるのは年間1兆機会で1度を下回るぐらい検出精度が高い。誤ってフラグが立てられた場合、ユーザーがアカウントを回復させるための意義申し立てを行うこともできる。
Appleはユーザーのプライバシー保護を徹底しているが、その厳しいプライバシー保護がCSAM拡散の隠れ蓑に悪用される可能性がある。子供達の保護を強化する3つの新機能は、プライバシー保護とCSAM排除を両立させる設計になっている。だが、Appleが主張するように機能するのか、同社のプライバシーの取り組みに影響する可能性など懸念の声も挙がっている。「Expanded Protections for Children」という文書においてAppleは、プログラムは子供達を守る責務を果たす意欲的な取り組みであり、「時間をかけて進化・拡大していくものです」としている。(Yoichi Yamashita)