Violenza on line e nuove forme di abuso tecnologico contro le donne.

L’intelligenza artificiale e i dispositivi smart stanno aprendo nuove vie alla violenza di genere: tra deepfake, controllo digitale e sorveglianza domestica, la tecnologia diventa arma di abuso

Violenza on line e nuove forme di abuso tecnologico contro le donne.
Condividi:
5 min di lettura
Nel 2025, in un’epoca dominata dalle’innovazione digitale, assistiamo anche ad un’altra faccia della medaglia: quella della tecnologia che non libera, ma che controlla e che anzi violentemente sovrasta.
Quando parliamo di abuso digitale, non si tratta solo di insulti o di molestie sui social: stiamo parlando dell’ uso dell’Intelligenza Artificiale, della sorveglianza connessa e di tutti quei dispositivi smart intesi come strumenti diretti della sopraffazione di genere.
E in Italia, seppur nei limiti della sensibilizzazione e della normativa, iniziano a presentarsi dei primi segnali e casi che richiedono estreme attenzione.
 
Uno dei fenomeni più inquietanti è quello dei cosidetti “deepfake pornografici”, ovvero video o immagini in cui volti femminili vengono inseriti in scene sessuali falsificate tramite AI. In Italia, ad esempio, la giornalista e scrittrice Francesca Barra ha denunciato la diffusione di immagini create con IA che la ritraevano nuda, nel contesto del sito “Phica. Net”.
 
Secondo dati recenti, nei primi mesi del 2023 sui siti pornografici sono stati caricati circa 113 000 contenuti deepfake, con una crescita esponenziale di circa 40 000 rispetto all’anno precedente: il 98% di tali contenuti aveva uno sfondo sessuale.
 
Sul piano legislativo, la Legge 132/2025, entrata in vigore in Italia il 10 ottobre 2025, ha finalmente introdotto come reato la «diffusione di immagini, video o audio falsificati o alterati mediante sistemi di intelligenza artificiale, senza il consenso della persona ritratta, e idonei a causare un danno ingiusto». La pena prevista va da uno a due anni di reclusione.
 
Questa evoluzione normativa è fondamentale e come osserva l’avvocato Giuseppe Fornari, intervistato su Repubblica: «il nuovo delitto colma un evidente vuoto di tutela, in quanto colpisce condotte che finora sfuggivano alla repressione mediante applicazione di fattispecie preesistenti», 
Tuttavia la normativa interviene solo dopo la diffusione; il danno, la vergogna, l’isolamento, spesso delle donne, sono già reali e permanenti.
 
Un’altra forma di abuso avviene quando la tecnologia linguistica o generativa diventa strumento di stalking, adescamento o molestia. Pur non sempre riconosciuta come “IA”, l’azione combinata di chatbot, modelli di linguaggio e profili falsi alimentano un eco di violenza che colpisce soprattutto donne e ragazze, spesso in relazioni asimmetriche.
 
In Italia, secondo la Garante per la protezione dei dati personali, nelle 2024 sono arrivate 823 segnalazioni riguardanti i revenge-porn,  quasi il triplo rispetto al 2023.
Mentre i modelli linguistici non sono ancora al centro dell’attenzione giuridica nella stessa misura dei deepfake,  il potenziale è chiaro: la generazione dell’IA per attirare, manipolare la vulnerabilità e isolare la vittima, rappresentano una dimensione della violenza digitale finora in parte invisibile berché ben presente.
 
Se l’IA e i deepfake sono strumenti diretti di violenza, un altro aspetto è rappresntato dalla sorveglianza e dal controllo domestico: ovvero quando la tecnologia diviene estensione del patriarcato.
Dispositivi  intelligenti, telecamere, termostati, sistemi di sicurezza, geolocalizzazione, possono trasformarsi, nelle relazioni abusive, in veri e propri strumenti di coercizione.
Infatti Italia, circa l’11% delle persone dichiara di essere stata vittima di stalking digitale.
Oggi il paese è tra i più esposti in Europa per abusi tramite dispositivi connessi.
 
Ma vi è di più, secondo un’analisi del portale tecnico Ingenio, la “tech- facilitated abuse”  passa a oggi anche da smartwatch , app,AirTag e smart home: «una relazione tossica aggiunge la modalità digitale, che amplifica, normalizza, invisibilizza l’abuso». 
In pratica: un partner abusivo può, da remoto, spegnere luci, regolare il termostato, accendere telecamere, controllare smartphone o serrature smart. Il risultato? La vittima vive nella propria casa - che dovrebbe essere rifugio-  come in una gabbia digitale.
 
In questo modo allora l’IA  diventa estensione del controllo patriarcale. 
Infatti, se si guarda con chiarezza al fenomeno, emerge un filo rosso: la tecnologia non è neutra. 
Quando viene impiegata per colpire, manipolare e controllare le donne, diventa la prosecuzione digitale di un dominio patriarcale che vuole la donna sorvegliata, privata di autonomia, ricattata o sottomessa. Le nuove forme di abuso non richiedono più la forza fisica, ma la costrizione tecnologica, la diffamazione digitale, la visibilità forzata, la cura delle abilità permanente.
 
In questo senso, la violenza non è solo “on-line” ma diventa ibrida: l’atto abnorme in rete ha conseguenze “off-line”,  nella reputazione, nelle relazioni, nell’isolamento e nella paura. La casa, lo smartphone, la videocamera possano trasformarsi in strumenti logistici del controllo.
 
Ma allora cosa bisogna fare?
La strada è lunga, ma ecco alcuni punti chiave per un intervento concreto: 
- Riconoscere la violenza digitale: è fondamentale che vittime, istituzioni e forze dell’ordine comprendano che non serve solo un livido per cogliere la gravità del reato; Anche uno “spegnimento remoto delle luci” può essere abuso. 
- Educazione e alfabetizzazione: le donne giovani devono essere sensibilizzati ai rischi delle tecnologie connesse e al potere manipolativo dell’IA.
- Normativa e responsabilità: la legge è un passo, ma servono strumenti pratici per intervenire con una rapidità nei casi di deepfake, stalking digitale e sorveglianza domestica.
- Tecnologia al servizio della libertà, non dell’oppressione: Produrre device o sistemi che prevedano «sicurezza by design», azzerino password predefinite, garantiscano trasparenza e controllo alle potenziali vittime.
- Supporto alle vittime: in Italia esiste il numero 15 22 (Attivo 24 ore), oltre a sportelli di assistenza, ma è essenziale che la violenza digitale abbia lo spazio riconosciuto che merita, con percorsi specifici.
 
In conclusione, l’IA e la tecnologia hanno potenzialità straordinarie per emancipazione, creatività e partecipazione. Ma quando queste stesse tecnologie vengono piegate al controllo, alla paura, all’umiliazione – e con particolare impatto sulle donne- deve scattare un allarme sociale.
 
Il diritto, le istituzioni, il tessuto civile devono rispondere con velocità e determinazione: perché la casa, il corpo, la reputazione di una donna non siano più meri “oggetti” da manipolare tecnicamente, ma si riaffermino come spazio di autonomia, libertà e dignità.