Il 14 ottobre 2025, il Parlamento europeo voterà una proposta che, sotto il nobile intento di combattere la pedopornografia online, rischia di introdurre una delle più invasive forme di sorveglianza mai concepite in ambito digitale. Il regolamento CSAR (Child Sexual Abuse Regulation) obbligherebbe le principali piattaforme di comunicazione — da WhatsApp a Telegram, da Signal a Gmail — a scansionare automaticamente ogni messaggio, immagine e video, anche se crittografati.
Come giurista, non posso che esprimere una profonda preoccupazione: questa misura, presentata come tutela dei minori, sembra piuttosto un cavallo di Troia per normalizzare il controllo sistematico della vita privata dei cittadini europei.
Il pretesto della protezione
La proposta prevede che ogni contenuto venga analizzato da sistemi di intelligenza artificiale, alla ricerca di materiale pedopornografico. In caso di sospetta corrispondenza, il sistema invia automaticamente una segnalazione alle autorità. Ma il metodo proposto è sproporzionato, inefficace e pericoloso. Si tratta di un sistema automatizzato che analizza ogni contenuto privato, generando segnalazioni basate su algoritmi.
Gli esperti avvertono: i falsi positivi possono superare l’80%. Cosa significa? Che migliaia di cittadini innocenti potrebbero essere indagati per aver condiviso, ad esempio:
- 📸 Foto di bambini al mare, inviate tra genitori e nonni.
- 🎂 Video di compleanni, con bambini che giocano in costume.
- 👨👩👧 Messaggi affettuosi tra fratelli o genitori e figli, che contengono espressioni intime o scherzose.
Questi contenuti, se analizzati fuori contesto da un algoritmo, potrebbero essere classificati come “sospetti”. Chi garantisce che la segnalazione non comporti perquisizioni, sequestri, o danni reputazionali irreparabili? Il risultato? Indagini su cittadini innocenti, con conseguenze devastanti sul piano reputazionale, psicologico e giuridico.
Una violazione sistematica dei diritti
Il Servizio giuridico del Consiglio UE ha già sollevato dubbi sulla compatibilità del regolamento con la Carta dei Diritti Fondamentali. In particolare:
- L’art. 7 tutela la vita privata e familiare.
- L’art. 8 garantisce la protezione dei dati personali.
La proposta, invece, impone un controllo generalizzato, senza alcun sospetto individuale, violando il principio di proporzionalità e trasformando ogni cittadino in un potenziale indagato.
Sorveglianza predittiva: il vero obiettivo?
La domanda che molti si pongono è: davvero questa misura serve solo a combattere la pedopornografia? O è l’inizio di un sistema di sorveglianza predittiva, dove ogni comunicazione privata diventa analizzabile, archiviabile, e potenzialmente utilizzabile contro il cittadino?
La crittografia end-to-end — pilastro della sicurezza digitale — verrebbe aggirata. Signal ha definito il progetto “malware di Stato”. WhatsApp ha avvertito: “È la fine della privacy digitale”, e non si tratta di allarmismo: si tratta di realtà tecnica e giuridica.
Conclusione: protezione sì, controllo no
Proteggere i minori è un dovere. Ma non si protegge distruggendo la libertà di tutti. La lotta agli abusi deve essere mirata, fondata su indagini individuali, strumenti proporzionati e rispetto dei diritti fondamentali.
Questa proposta, invece, rischia di aprire la porta a un futuro in cui ogni parola scritta, ogni foto inviata, ogni emozione condivisa può essere analizzata, giudicata, segnalata. Non è prevenzione: è controllo, e il controllo, quando è cieco e sistematico, non protegge, opprime.
Francesco Paolo Cinquemani
*avvocato