Il 'Take It Down Act' entra in vigore il 19 maggio 2026 negli Stati Uniti, richiedendo alle piattaforme di conformarsi alle richieste di rimozione di immagini sessualmente esplicite entro 48 oreIl 'Take It Down Act' entra in vigore il 19 maggio 2026 negli Stati Uniti, richiedendo alle piattaforme di conformarsi alle richieste di rimozione di immagini sessualmente esplicite entro 48 ore

Immagini AI nude: il 'Take It Down Act' negli USA permetterà agli utenti di richiedere la rimozione rapida

2026/01/11 10:00

Dalla fine di dicembre 2025, il chatbot di intelligenza artificiale di X, Grok, ha risposto a numerose richieste degli utenti di spogliare persone reali trasformando le foto delle persone in materiale sessualmente esplicito. Dopo che le persone hanno iniziato a utilizzare questa funzionalità, l'azienda della piattaforma social ha dovuto affrontare un controllo globale per aver consentito agli utenti di generare rappresentazioni sessualmente esplicite non consensuali di persone reali.

L'account Grok ha pubblicato migliaia di immagini "denudificate" e sessualmente suggestive ogni ora. Ancora più inquietante, Grok ha generato immagini sessualizzate e materiale sessualmente esplicito di minori.

La risposta di X: incolpate gli utenti della piattaforma, non noi. L'azienda ha rilasciato una dichiarazione il 3 gennaio 2026, affermando che "Chiunque utilizzi o richieda a Grok di creare contenuti illegali subirà le stesse conseguenze come se caricasse contenuti illegali." Non è chiaro quale azione, se esiste, X abbia intrapreso contro gli utenti.

Come studioso legale che studia l'intersezione tra diritto e tecnologie emergenti, vedo questa ondata di immagini non consensuali come un risultato prevedibile della combinazione delle politiche di moderazione dei contenuti lassiste di X e dell'accessibilità di potenti strumenti di IA generativa.

Prendere di mira gli utenti

La rapida ascesa dell'IA generativa ha portato a innumerevoli siti web, app e chatbot che consentono agli utenti di produrre materiale sessualmente esplicito, inclusa la "denudificazione" di immagini di bambini reali. Ma queste app e siti web non sono così ampiamente conosciuti o utilizzati come le principali piattaforme di social media, come X.

Le legislature statali e il Congresso hanno risposto in modo relativamente rapido. Nel maggio 2025, il Congresso ha promulgato il Take It Down Act, che rende un reato penale la pubblicazione di materiale sessualmente esplicito non consensuale di persone reali. Il Take It Down Act criminalizza sia la pubblicazione non consensuale di "rappresentazioni visive intime" di persone identificabili sia le rappresentazioni generate da IA o comunque generate al computer di persone identificabili.

Tali disposizioni penali si applicano solo a qualsiasi individuo che pubblichi il contenuto sessualmente esplicito, non alle piattaforme che distribuiscono il contenuto, come i siti web di social media.

Altre disposizioni del Take It Down Act, tuttavia, richiedono alle piattaforme di stabilire un processo affinché le persone raffigurate possano richiedere la rimozione delle immagini. Una volta presentata una "Take It Down Request", una piattaforma deve rimuovere la rappresentazione sessualmente esplicita entro 48 ore. Ma questi requisiti non entreranno in vigore fino al 19 maggio 2026.

Problemi con le piattaforme

Nel frattempo, le richieste degli utenti di rimuovere le immagini sessualmente esplicite prodotte da Grok sono apparentemente rimaste senza risposta. Anche la madre di uno dei figli di Elon Musk, Ashley St. Clair, non è riuscita a far rimuovere a X le false immagini sessualizzate di lei che i fan di Musk hanno prodotto usando Grok. The Guardian riporta che St. Clair ha detto che i suoi "reclami allo staff di X non sono approdati a nulla."

Questo non mi sorprende perché Musk ha smantellato il gruppo consultivo Trust and Safety di allora Twitter poco dopo aver acquisito la piattaforma e ha licenziato l'80% degli ingegneri dell'azienda dedicati alla fiducia e alla sicurezza. I team di fiducia e sicurezza sono generalmente responsabili della moderazione dei contenuti e delle iniziative per prevenire gli abusi nelle aziende tecnologiche.

Pubblicamente, sembra che Musk abbia respinto la gravità della situazione. Musk avrebbe pubblicato emoji che ridono e piangono in risposta ad alcune delle immagini, e X ha risposto alla domanda di un giornalista di Reuters con la risposta automatica "Legacy Media Lies."

Limiti delle cause legali

Le cause civili come quella intentata dai genitori di Adam Raine, un adolescente che si è suicidato nell'aprile 2025 dopo aver interagito con ChatGPT di OpenAI, sono un modo per ritenere responsabili le piattaforme. Ma le cause affrontano una battaglia in salita negli Stati Uniti data la Sezione 230 del Communications Decency Act, che generalmente immunizza le piattaforme di social media dalla responsabilità legale per i contenuti che gli utenti pubblicano sulle loro piattaforme.

Il giudice della Corte Suprema Clarence Thomas e molti studiosi legali, tuttavia, hanno sostenuto che la Sezione 230 è stata applicata in modo troppo ampio dai tribunali. Sono generalmente d'accordo che l'immunità della Sezione 230 debba essere ristretta perché immunizzare le aziende tecnologiche e le loro piattaforme per le loro scelte di progettazione deliberate - come è costruito il loro software, come opera il software e cosa produce il software - rientra al di fuori dell'ambito delle protezioni della Sezione 230.

In questo caso, X ha consapevolmente o negligentemente omesso di implementare salvaguardie e controlli in Grok per impedire agli utenti di generare immagini sessualmente esplicite di persone identificabili. Anche se Musk e X ritengono che gli utenti dovrebbero avere la capacità di generare immagini sessualmente esplicite di adulti usando Grok, credo che in nessun mondo X dovrebbe sfuggire alla responsabilità per aver costruito un prodotto che genera materiale sessualmente esplicito di bambini della vita reale.

Protezioni regolamentari

Se le persone non possono ritenere responsabili piattaforme come X tramite cause civili, allora spetta al governo federale indagare e regolamentarle. La Federal Trade Commission, il Dipartimento di Giustizia o il Congresso, ad esempio, potrebbero indagare su X per la generazione di materiale sessualmente esplicito non consensuale da parte di Grok. Ma con i rinnovati legami politici di Musk con il presidente Donald Trump, non mi aspetto indagini serie e responsabilità a breve.

Per ora, i regolatori internazionali hanno avviato indagini contro X e Grok. Le autorità francesi hanno avviato indagini sulla "proliferazione di deepfake sessualmente espliciti" da Grok, e l'Irish Council for Civil Liberties e Digital Rights Ireland hanno fortemente sollecitato la polizia nazionale irlandese a indagare sulla "massiccia ondata di spogliazione." L'agenzia di regolamentazione britannica Office of Communications ha affermato di stare indagando sulla questione, e i regolatori della Commissione europea, India e Malesia starebbero indagando su X anche loro.

Negli Stati Uniti, forse il miglior corso d'azione fino a quando il Take It Down Act entrerà in vigore a maggio è che le persone richiedano azioni ai funzionari eletti. – Rappler.com

L'articolo è apparso originariamente su The Conversation.

Wayne Unger, Associate Professor of Law, Quinnipiac University

The Conversation
Opportunità di mercato
Logo Sleepless AI
Valore Sleepless AI (AI)
$0.04122
$0.04122$0.04122
-0.69%
USD
Grafico dei prezzi in tempo reale di Sleepless AI (AI)
Disclaimer: gli articoli ripubblicati su questo sito provengono da piattaforme pubbliche e sono forniti esclusivamente a scopo informativo. Non riflettono necessariamente le opinioni di MEXC. Tutti i diritti rimangono agli autori originali. Se ritieni che un contenuto violi i diritti di terze parti, contatta service@support.mexc.com per la rimozione. MEXC non fornisce alcuna garanzia in merito all'accuratezza, completezza o tempestività del contenuto e non è responsabile per eventuali azioni intraprese sulla base delle informazioni fornite. Il contenuto non costituisce consulenza finanziaria, legale o professionale di altro tipo, né deve essere considerato una raccomandazione o un'approvazione da parte di MEXC.