La recente implementazione della funzione di X che permetteva agli utenti di chiedere a Grok, l’intelligenza artificiale integrata, di modificare le foto pubblicate da chiunque sulla piattaforma, ha sollevato non pochi dubbi su come contrastare il fenomeno di diffusione di materiale sessualmente esplicito non consensuale.
Il ricercatore e giornalista Philip Di Salvo sostiene che la questione non va riferita solo al chatbot, ma all’ecosistema in cui quel chatbot è inserito. Nel caso di Grok, parliamo di un’IA sviluppata da xAI e integrata in X, una piattaforma che sotto Elon Musk ha fatto scelte molto precise: riduzione della moderazione, esaltazione dell’idea di free speech absolutism e una cultura permissiva che vede le regole come un ostacolo più che come una responsabilità.
La tecnologia di Grok e il problema della diffusione di immagini intime non consensuali
La tecnologia di Grok, come quella di ChatGPT, Gemini o Perplexity, dimostra che è possibile progettare modelli con guardrail più rigidi, per quanto non perfetti ovviamente. La differenza non è necessariamente tecnologica, è politica e culturale. X e Musk hanno scelto di posizionare Grok come un’AI meno ‘censurata’, seguendo un tipico adagio dell’ultra-destra.
Ma in un ambiente che premia la tossicità e la viralità, questa permissività diventa rapidamente un fattore di rischio strutturale, soprattutto per fenomeni come i deepfake pornografici, la misoginia online e l’hate speech. Nessun chatbot è immune da questi rischi, ma nel caso di Grok emerso in queste settimane stiamo assistendo a un fenomeno fluviale nella sua portata.
I deepfake e il problema della violenza digitale
I deepfake sono video o immagini create grazie all’utilizzo dell’intelligenza artificiale per manipolare un’immagine, ad esempio sostituendo il volto di una persona con quello di un’altra, spesso producendone una tanto verosimile da risultare indistinguibile dalla realtà. L’espressione è un neologismo nato dalla fusione dei termini “fake” e “deep learning”.
I deep nude e i deep porn sono una sottocategoria dei deepfake. Immagini e video sono manipolati dall’IA con l’obiettivo di rimuovere gli indumenti a una persona e produrre contenuti falsi sessualmente espliciti.
Il caso di Grok e la diffusione di immagini intime non consensuali
Secondo un’indagine del Guardian, entro l’8 gennaio le richieste di bikini al chatbot di X erano fino a 6’000 ogni ora. La protezione dalla produzione artificiale di immagini intime non consensuali non può dipendere principalmente né esclusivamente dai comportamenti dei singoli utenti, anche se alcune scelte individuali possono ridurre il rischio.
Oggi bastano poche foto già disponibili online, per creare deepfake, come dimostra il caso Grok stesso: questo rende l’idea della prudenza personale insufficiente e, in parte, fuorviante. Il problema è strutturale. La vera protezione dipende soprattutto da leggi di tutela e da responsabilità chiare per piattaforme e produttori di tecnologia.
La cultura misogynia e la diffusione di immagini intime non consensuali
A monte di ogni discussione vi è una cultura misogina che la tecnologia amplifica e facilita. I deepfake e i deep porn non consensuali non sono un uso marginale dell’intelligenza artificiale, ma uno degli impieghi più diffusi e sistematici.
Questo fenomeno colpisce in modo sproporzionato donne, persone LGBTQ+ e soggetti già esposti a squilibri di potere. La vera domanda quindi non è se questa deriva continuerà, ma chi si assume la responsabilità di fermarla.
La necessità di regole chiare e leggi esplicite per contrastare la diffusione di immagini intime non consensuali
Iniziative come il Take It Down Act sono fondamentali perché riconoscono le immagini intime artificiali come una forma di violenza digitale e impongono rimozioni rapide, spostando il peso dall’individuo all’infrastruttura che consente la diffusione.
Detto questo, la legge da sola non basta. Serve anche intervenire a monte: progettazione responsabile dei modelli di IA, watermarking dei contenuti generati, limiti sull’uso dei dati personali e sistemi efficaci di segnalazione.
- Il 53% delle immagini generate da Grok conteneva persone con abbigliamento minimo.
- Nell’81% dei casi si trattava di individui che si presentavano come donne.
- I deepfake e i deep porn non consensuali non sono un uso marginale dell’intelligenza artificiale.
- Questo fenomeno colpisce in modo sproporzionato donne, persone LGBTQ+ e soggetti già esposti a squilibri di potere.
Fonte originale: Rsi — Quando l’IA diventa abuso: abbiamo il controllo della nostra immagine?