Violenza digitale, quando persino l’IA è utilizzata per colpire l’integrità e la dignità delle donne

4 mins read
intelligenza artificiale
intelligenza artificiale

Negli ultimi mesi l’Italia ha scoperto di essere dentro una nuova forma di pornografia, subdola e quasi invisibile: quella non consensuale, alimentata da forum, social e intelligenza artificiale. Prima c’era stato il gruppo Facebook “Mia moglie”, dove migliaia di uomini condividevano scatti intimi delle proprie partner, amiche o conoscenti senza permesso, trasformando la quotidianità in un mercato di corpi. Poi il sito “Phica”, un archivio dell’umiliazione digitale che raccoglieva foto rubate di donne comuni e figure pubbliche, da politiche a giornaliste, accompagnate da commenti espliciti e degradanti. Oggi, una nuova piattaforma – “SocialMediaGirls” – spinge la violenza ancora oltre, sfruttando l’intelligenza artificiale per creare nudi realistici di donne che non hanno mai posato nude. La violenza si traveste da tecnologia e l’IA non è più usato come strumento creativo, ma come macchina della violazione.

Tra le vittime ci sono volti noti come Francesca Barra, Caterina Balivo, Michelle Hunziker, Maria De Filippi, Diletta Leotta e persino Cristina D’Avena, la voce che ha accompagnato l’infanzia di generazioni.

Le voci ferite: la paura, la rabbia, la vergogna

Alcune immagini realizzate con l'intelligenza artificiale: tra le vittime conduttrici, showgirl, cantanti e giornaliste.
Alcune immagini realizzate con l’intelligenza artificiale: tra le vittime conduttrici, showgirl, cantanti e giornaliste/Credit: web

Quando Francesca Barra ha trovato in rete immagini di sé ricreate artificialmente, il primo pensiero è andato ai suoi figli. «Ho provato imbarazzo e paura per ciò che avrebbero potuto sentire o leggere», ha scritto sui social, ricordando che quelle immagini “sono un reato”. Cristina D’Avena, scossa, ha raccontato di aver visto il proprio viso montato su corpi altrui, rubato da scatti innocenti, e di aver provato disgusto: «Mi ha fatto veramente schifo». Due voci che rappresentano lo smarrimento di tante altre, vittime di un fenomeno che mescola pornografia, hackeraggio e intelligenza artificiale, creando un sistema globale di violenza e sfruttamento in cui ogni corpo può essere manipolato, replicato, mercificato.

Ma quello che sta accadendo non è solo un episodio di cronaca: è uno specchio in cui siamo chiamati a guardarci dentro, anche se fa male; è un terremoto etico e culturale che ci costringe a fare i conti, ancora una volta, con il lato oscuro del progresso. Perché dentro queste storie non ci sono solo immagini false, ma la misura della nostra vulnerabilità e della fragilità collettiva, la prova di quanto poco sappiamo ancora gestire la potenza delle tecnologie che abbiamo creato. La linea tra libertà e violazione, tra innovazione e barbarie, è diventata sottile quanto un clic. E non basta sapere che “quelle foto non sono vere” per sentirsi salvi: quando la verità può essere imitata, la realtà perde valore. E nella società di oggi che crede più alle immagini che alle parole, ciò che appare diventa più reale di ciò che è.

«Non sono foto vere e quindi quella non sono io, ma sono andati a rubare scatti fatti in momenti belli, importanti e li hanno sporcati in questo modo» [Cristina D’Avena]

L’intelligenza artificiale come nuovo strumento di dominio

L’IA viene utilizzata per sfogare le proprie fantasie e perversioni a discapito di donne inconsapevoli e vittime/Credit: web

Chi ha subito questa violenza – perché, sì, è di violenza che si tratta – racconta smarrimento, paura, vergogna. Ma anche incredulità. Perché non basta sapere che “quelle foto non sono vere” per sentirsi salvi. La verità non è più un dato oggettivo, è qualcosa che si può imitare, alterare, cancellare. E allora cosa resta della nostra identità quando chiunque può riscriverla, svuotarla, mercificarla?

L’intelligenza artificiale, che prometteva conoscenza e progresso, bellezza ed efficienza sta diventando il terreno fertile di una nuova forma di dominio e sopraffazione: invisibile, liquida, inafferrabile. Non serve più entrare nella vita di qualcuno per ferirlo: basta generare la sua immagine, e lasciarla circolare. Ogni file diventa una forma di violenza, ogni visualizzazione un piccolo atto di complicità. A quel punto il danno non è solo individuale. È collettivo. Perché tocca la fiducia, quella materia sottile che tiene insieme la convivenza, il senso stesso del rispetto reciproco.

E viene spontaneo chiedersi: come possiamo educare le nostre figlie e i nostri figli a proteggersi da un mondo in cui non serve più spiare, basta immaginare? Che valore ha la privacy, se la trasparenza forzata è la nuova norma?

Ripensare l’etica della visione

Credit: Francesca Barra

Ci raccontiamo che la tecnologia è neutra, che dipende dall’uso che ne facciamo. Ma allora forse, dietro la neutralità apparente, si nasconde la nostra stessa sete di controllo, la curiosità morbosa, la cultura millenaria che ha sempre visto nel corpo femminile un territorio da occupare, da giudicare, da esibire?

Queste immagini create dall’IA non sono semplici falsi: sono il riflesso di un pensiero che non è cambiato. E finché resterà impunito, continuerà a generare violenza.

La storia di queste donne – famose o sconosciute che siano – è un monito, un campanello d’allarme che ci riguarda tutti. Perché oggi è il volto di una giornalista, domani potrebbe essere quello di chiunque. Non è più una questione di gossip, ma di civiltà. E allora la domanda più urgente non è più “come fermare questi siti”, visto che la cronaca degli ultimi mesi ci ha insegnato che si rigenerano e moltiplicano senza controllo. La domanda è “come ripensare l’etica della visione”. Cosa significa guardare, condividere, diffondere, quando ogni immagine può essere una ferita?

Il compito più difficile, oggi, dunque, non è tanto quello di difendere la realtà, ma di restituirle un senso. Di rimettere al centro la persona, non la sua rappresentazione. Di ricordare che la tecnologia, senza coscienza, non è progresso. E che ogni volta che una donna viene “spogliata” digitalmente, si consuma una piccola sconfitta di tutti: della cultura, dell’umanità, della dignità stessa del guardare.

Il rapido progresso dell’Ia presenta molti rischi nel breve termine. Ha creato contenuti divisivi che rendono le persone indignate e utilizzate da governi autoritari per la sorveglianza di massa, da cyber criminali. Nel futuro potrà creare virus e armi letali – Geoffrey Hinton, Premio Nobel per la Fisica

Per rimanere aggiornato sulle ultime opinioni, seguici su: il nostro sitoInstagramFacebook e LinkedIn

Classe 1984, è una giornalista che ha iniziato la sua carriera nel 2006 presso un'emittente locale, dove si occupava principalmente di cultura e attualità. La sua passione per il giornalismo e la comunicazione l'ha portata a collaborare con alcune delle più importanti testate nazionali, ampliando il suo raggio d'azione su una vasta gamma di temi.Nel corso degli anni, ha scritto di attualità, cultura, spettacoli, musica, cinema, gossip, cronache reali, bellezza, moda e benessere. Ha avuto l'opportunità di intervistare numerosi cantanti, attori e personaggi televisivi italiani e stranieri.Attualmente, scrive per le riviste Mio, Eva 3000 e Eva Salute, dove continua a esplorare i temi che da sempre la appassionano, con un occhio attento alle tendenze e ai cambiamenti del panorama mediatico e culturale.

Lascia un commento

Your email address will not be published.

Previous Story

La Tebaide ritrovata: concluso a Siena il restauro di uno dei capolavori della pittura del Trecento

Next Story

“Per te ci vorrebbe Turetta”: l’inaccettabile insulto di un docente ad una sua alunna

Latest from Blog