Birleşik Krallık’ın Çocuklara Yönelik Zulmü Önleme Ulusal Derneği (NSPCC), Apple’ın platformlarındaki çocuklara yönelik cins*l ist*smar materyallerinin (CSAM) tespitinde eksik raporlama yaptığı iddiasında bulundu. The Guardian'ın haberine göre, Apple’ın ürünlerindeki gerçek CSAM tespit sayısını yetersiz bildirdiği öne sürüldü.
Eksik Raporlama İddiası
NSPCC, Apple’ın Nisan 2022 ile Mart 2023 arasında Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’ne yalnızca 267 CSAM şüphesiyle ilgili rapor sunduğunu belirtti. Ancak, bu dönemde Apple’ın kayıtlı 337 çocuk istismarı görseli suçuna karıştığı tespit edildi. Apple’ın İngiltere ve Galler’deki davalardan daha az sayıda rapor bildirdiği, diğer büyük teknoloji şirketlerinin ise çok daha yüksek sayılarda bildirimde bulunduğu belirtiliyor. Örneğin, Meta platformunda 1,4 milyonu WhatsApp’ta olmak üzere toplamda 30,6 milyondan fazla şüpheli CSAM materyali rapor ederken, Google 1,47 milyondan fazla materyali bildirdi.
Apple’ın Gizlilik Politikası ve Eksik Bildirimler
Apple, 2022’nin sonlarında çocuk cins*l istismarı materyallerini aramak yerine kullanıcıları gözetleyeceği tepkilerinin ardından iCloud fotoğraf tarama aracını kullanıma sunma planlarını iptal etmişti. Şirket, kullanıcı güvenliğine ve gizliliğine öncelik vereceğini belirterek çocukları korumak için başka yöntemler sunma sözü vermişti. Ancak, Apple’ın eksik raporlama yaptığı ve bu durumun üstesinden gelebilmek için yeterli güven ve güvenlik yatırımı yapmadığı eleştirileri devam ettiği öğrenildi.
Apple’ın Yanıtı ve Endişeler
Los Angeles’taki çocuk koruma kuruluşu Heat Initiative’in CEO’su Sarah Gardner, Apple’ın CSAM’i geniş ölçekte tespit edemediğini ve eksik bildirimde bulunduğunu ifade etti. Gardner, Apple’ın güvenlik ve güven ekiplerine gereken yatırımı yapmadığını belirtti.