Vai al contenuto

OnlyDown: quando l’AI sfrutta e feticizza le persone con disabilità. L’allarme di AIPD sul nuovo volto dell’abuso digitale

Data di pubblicazione 17 Aprile 2025
Tempo di lettura Lettura 4 minuti

Profili fake, deepfake generati con intelligenza artificiale, corpi artificiali che imitano tratti somatici della sindrome di Down. L’ultima frontiera del web feticizza la disabilità per generare profitto. Dietro la patina dell’inclusività, si nasconde una nuova forma di sfruttamento. Grave e pericolosa.

Il lato oscuro dell’intelligenza artificiale

L’intelligenza artificiale ha ormai la capacità di creare immagini indistinguibili dalla realtà in pochi secondi. Una tecnologia straordinaria, ma ambivalente: se da un lato promette inclusione, accessibilità e innovazione, dall’altro si presta sempre più spesso a usi distorti e pericolosi, specie quando mancano regole chiare e tutele per i soggetti più fragili.

Lo ha denunciato con forza l’AIPD – Associazione Italiana Persone con sindrome di Down, sollevando un caso che fa rabbrividire: la diffusione online di profili femminili deepfake con caratteristiche riconducibili alla sindrome di Down, generati da software AI e utilizzati per attirare utenti su piattaforme a pagamento come OnlyFans.

Il fenomeno OnlyDown: falso, sessualizzato, monetizzabile

Il nome con cui è stato ribattezzato il fenomeno è OnlyDown. Un gioco di parole che richiama la celebre piattaforma OnlyFans e la disabilità genetica, ma che svela un sistema inquietante: immagini rubate, manipolate e ricostruite per creare ragazze dall’aspetto provocante con tratti somatici tipici della sindrome di Down. L’obiettivo? Creare profili che sembrano autentici, attirare follower sui social – Instagram, TikTok, Telegram – e poi dirottarli su account dove acquistare contenuti sessualmente espliciti.

Tra i casi più eclatanti, quello di “Maria Dopari”, un profilo Instagram che ha raggiunto quasi 150.000 follower prima di essere rimosso. A prima vista sembrava una giovane donna reale: abiti succinti, pose sensuali, didascalie ammiccanti. In realtà, si trattava di un prodotto artificiale, un corpo inesistente costruito al computer, probabilmente partendo da immagini reali di donne con disabilità, alterate per generare profitto.

Tra feticismo e pornografia digitale: il corpo disabile come oggetto di consumo

Il fenomeno solleva domande profonde e scomode. A partire da quella posta da Matteo Flora, imprenditore, professore e divulgatore nel campo della sicurezza dell’intelligenza artificiale:

“Dove finisce l’inclusione e dove inizia la feticizzazione? Cosa significa rappresentare la disabilità online, se dietro c’è un algoritmo che crea corpi per vendere contenuti?”

Flora, nel suo canale YouTube “Ciao Internet”, ha spiegato come la tendenza sia nata nel contesto di un’apparente inclusività social, in cui diverse ragazze con sindrome di Down condividevano momenti di vita quotidiana. Tuttavia, su questa scia positiva si è inserito un meccanismo manipolatorio: quello dei profili fake generati da intelligenze artificiali, che imitano l’esteriorità della disabilità per attrarre un pubblico feticista e monetizzare.

Deepfake e disabilità: vuoti normativi e strumenti di protezione insufficienti

Attualmente in Italia la creazione e diffusione di contenuti deepfake lesivi può essere perseguita penalmente con pene detentive da 1 a 5 anni. Ma l’evoluzione rapidissima della tecnologia, unita alla facilità di condivisione sui social, rende molto difficile intercettare e bloccare questi abusi.

Flora suggerisce ad AIPD di agire direttamente con AGCOM, l’Autorità per le garanzie nelle comunicazioni, per richiedere la rimozione dei contenuti illeciti. Ma è una corsa contro il tempo. Le piattaforme come Instagram e Telegram, infatti, non sono in grado – o non hanno interesse – a intervenire con tempestività, lasciando attivi per giorni o settimane profili potenzialmente dannosi.

Un pericolo concreto per le persone reali

“Serve una presa di coscienza da parte delle famiglie”, avverte Gianfranco Salbini, presidente nazionale di AIPD. “Siamo consapevoli che molti genitori amano condividere sui social la quotidianità con i propri figli e figlie, anche con disabilità. Ma dobbiamo ricordare che quelle immagini possono essere rubate, manipolate e sfruttate, trasformando un gesto d’amore in un pericolo concreto”.

Salbini invita a un atteggiamento più prudente e consapevole: “Anche se parlarne può suscitare emulazione, non possiamo più tacere. È urgente informare, denunciare, proteggere. L’uso distorto delle immagini umane – soprattutto di persone con disabilità – è una minaccia che va fermata con leggi più efficaci, maggiore vigilanza e una forte mobilitazione culturale”.

Verso un’alleanza tra cittadinanza e diritti digitali

Il caso OnlyDown è solo la punta dell’iceberg. In un mondo in cui la tecnologia supera di gran lunga la coscienza etica, è indispensabile che anche la società civile si attrezzi. Servono strumenti di verifica, piattaforme più responsabili, ma soprattutto una nuova alfabetizzazione digitale che metta al centro la dignità della persona.

Perché non è solo questione di algoritmi o di codice. In gioco c’è il diritto di esistere senza essere manipolati, mercificati, feticizzati. E questo riguarda tutte e tutti, online e offline.

Condividi:
Articoli correlati

Altri articoli che potrebbero interessarti