Apple scansionerà tutte le foto caricate dai propri utenti in iCloud e salvate sui dispositivi, alla ricerca di immagini pedopornografiche o che raffigurano abusi sessuali su minori, che verranno segnalate alle autorità competenti.

Lo ha annunciato la big tech, che userà un metodo basato su codici cifrati, che non dovrebbe mettere a rischio la privacy.

Il sistema trasformerà le immagini in un set di simboli che verrà confrontato con un database fornito da alcune associazioni contro la pedopornografia, come il National Center for Missing and Exploited Children, ed è in grado di riconoscerle anche se ci sono stati dei piccoli cambiamenti come tagli o applicazione di filtri.

Un software aggiuntivo, ha spiegato ancora la multinazionale americana sul proprio sito, farà delle ulteriori verifiche, tali da rendere la probabilità di errore inferiore a una su un trilione.

Un'eventuale corrispondenza farà scattare un avviso che farà intervenire degli operatori che verificheranno se effettivamente le foto fanno parte del database.

In questo caso l'account dell'utente verrà chiuso e scatterà la segnalazione alle autorità.

"Il metodo - ha assicurato Apple - è stato progettato avendo sempre in mente la privacy dell'utente".

"Vogliamo aiutare a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per adescarli e sfruttarli, e limitare la diffusione di materiale pedopornografico (Csam)", ha spiegato ancora la società.

L'iniziativa ha già suscitato qualche polemica nelle associazioni per il diritto alla privacy.

La nuova funzione sarà disponibile con uno dei prossimi aggiornamenti del software. 

(Unioneonline/F)

© Riproduzione riservata