Con l’arrivo di iOS 15 e macOS Monterey, Apple intende introdurre nuove protezioni per combattere gli abusi sessuali sui minori. Un gesto apprezzabile che lascia però molti interrogativi.
Due strumenti per lo stesso fine
Ciò che Apple chiama rilevamento CSAM (per materiale sugli abusi sessuali su minori) è in realtà suddiviso in due strumenti separati. La prima riguarda l’applicazione Messaggi e permette di scansionare tutte le immagini che passano per l’app al fine di identificare grazie a un’intelligenza artificiale, contenuti sessualmente espliciti ricevuti o inviati. In caso di risultato positivo, l’immagine viene sfocata e il bambino viene avvisato.
Tutto questo avviene direttamente su iPhone, iPad o Mac e quindi nessuna foto viene trasmessa ad Apple. Inoltre, ciò riguarda solo i dispositivi dei bambini all’interno di un account famiglia e i genitori vengono avvisati solo se il bambino ha 12 anni o meno. A partire dai 13 anni i ragazzi possono quindi decidere di guardare le immagini in questione se lo desiderano, e in assoluta discrezione.
L’idea è piuttosto interessante per preservare i più piccoli ma richiede comunque che il bambino passi attraverso l’app interna messaggi e non un’app quale WhatsApp, Telegram, Signal, Messenger che sono decisamente più utilizzate.
Ma è il secondo strumento che solleva interrogativi più grandi. Questo esegue la scansione di tutte le foto contenute su iCloud per confrontarle con un database di contenuti pedopornografici e segnalarlo alle autorità in caso di corrispondenza dimostrata. Apple garantisce il mantenimento della sicurezza dei dati poiché non ottiene le foto incriminate.
Le critiche dal mondo
A seguito di questo annuncio, diverse voci si sono sollevate in tema privacy. Tim Sweeney, fondatore di Epic Games, ad esempio, lo ha definito “spyware governativo”, così come Will Cathcart, il capo di WhatsApp ha colto l’occasione per assicurarsi che la sua applicazione di messaggistica non adotterebbe mai un simile sistema, o anche l’ONG Electronic Frontier Foundation.
Intendiamoci: l’abuso sessuale sui minori è orribile ed è condannato ovunque, ma ci sono altri modi per combattere queste pratiche. Questa è la principale critica al metodo Apple. Il database utilizzato da Cupertino, sebbene crittografato in teoria potrebbe quindi contenere anche altri elementi.
Allo stesso modo, un governo potrebbe costringere Apple ad aggiungere altri elementi a questo elenco. Matt Blaze, ricercatore informatico, assicura che ora ci sarà “un’enorme pressione su Apple da parte dei governi di tutto il mondo per questa capacità di rilevamento di contenuti ”.
In un documento volto a chiarire i fatti, Apple promette di negare queste richieste e indica che questo database è integrato nel sistema…ma ciò presuppone di credere all’azienda sulla parola senza prove certe.
Protezione limitata
Questa integrazione non è quindi priva di rischi per le libertà individuali online e rischia purtroppo di avere un impatto molto basso sulla lotta alla pedopornografia: un semplice link inviato dall’applicazione Messaggi, ad esempio, non verrebbe analizzato dallo strumento di Apple e potrebbe portare allo stesso tipo di contenuto.
Da parte sua, Will Cathcart indica che WhatsApp ha segnalato 400.000 casi nel 2020 al National Center for Missing and Exploited Children, solo sulla base delle segnalazioni degli utenti, e che più di 300.000 account vengono bannati ogni mese.
Cifre che fanno paura per un problema che è più grande di quanto si possa immaginare.