Discord applica impostazioni predefinite per adolescenti a livello globale, richiedendo la verifica dell'età per l'accesso sicuro a contenuti sensibili.Discord applica impostazioni predefinite per adolescenti a livello globale, richiedendo la verifica dell'età per l'accesso sicuro a contenuti sensibili.

Discord applica impostazioni predefinite per adolescenti a livello globale, richiedendo la verifica dell'età per un accesso sicuro ai contenuti sensibili.

2026/02/10 13:09
4 min di lettura

Discord ha annunciato lunedì che presto chiederà a tutti gli utenti a livello globale di confermare la loro età tramite riconoscimento facciale o caricando un documento di identità per accedere ai contenuti per adulti. 

Il comunicato stampa di Discord ha rivelato che le funzionalità di sicurezza migliorate per gli adolescenti implementate a livello globale favoriranno l'obiettivo di lunga data dell'azienda di rendere l'app più sicura e accogliente per gli utenti di età pari o superiore a 13 anni.

La piattaforma di chat ha dichiarato che questo aggiornamento fornirà automaticamente a tutti i nuovi e attuali utenti in tutto il mondo un'esperienza adatta agli adolescenti con impostazioni di comunicazione riviste, accesso limitato alle aree con restrizioni di età e filtri dei contenuti che proteggono la privacy e le connessioni profonde che caratterizzano Discord.

Discord espande i controlli dell'età e i controlli di sicurezza a livello globale

Discord consente alle persone di creare e unirsi a gruppi in base ai loro interessi. Lo strumento di messaggistica di gruppo ha rivelato di avere più di 200 milioni di utenti mensili.

Discord attualmente richiede a determinati utenti nel Regno Unito e in Australia di confermare la loro età per aderire alle normative sulla sicurezza online. Tuttavia, la piattaforma di chat ha annunciato che implementerà controlli dell'età per tutti gli utenti nuovi ed esistenti a livello globale a partire dai primi di marzo di quest'anno. Ciò significa che alcuni utenti dovranno completare un processo di verifica dell'età per modificare determinate impostazioni o accedere a contenuti sensibili, come server, canali con restrizioni di età, comandi dell'app e determinate richieste di messaggi.

L'app del server della community ha dichiarato che le nuove impostazioni predefinite limiteranno ciò che gli utenti possono vedere e come possono comunicare. Solo gli utenti che si autenticheranno come adulti potranno accedere ai forum con restrizioni di età e sbloccare i contenuti sensibili. Il sito ha anche rivelato che finché gli utenti non superano i controlli dell'età di Discord, non potranno visualizzare i messaggi diretti inviati loro da un utente sconosciuto.

Drew Benvie, capo della società di consulenza sui social media Battenhall, ha dichiarato che è una buona idea sostenere gli sforzi per rendere i social media un luogo più sicuro per tutti gli utenti.

La mossa di Discord arriva in mezzo a una crescente preoccupazione globale su come le piattaforme di social media espongono bambini e adolescenti a contenuti dannosi e funzionalità di design che creano dipendenza. 

Governi, autorità di regolamentazione e tribunali stanno esaminando sempre più le aziende tecnologiche per determinare se stanno facendo abbastanza per proteggere i giovani utenti. Le recenti misure dimostrano una crescente pressione per migliorare gli standard di sicurezza online a livello di settore.

L'Unione Europea il 6 febbraio ha accusato TikTok di violare le normative digitali del blocco con funzionalità di "design che crea dipendenza" che portano all'uso compulsivo da parte dei bambini.

Le autorità di regolamentazione dell'UE hanno affermato che la loro indagine biennale ha rilevato che TikTok non ha fatto abbastanza per valutare come funzionalità come la riproduzione automatica e lo scorrimento infinito possano influire sulla salute fisica ed emotiva degli utenti, in particolare bambini e "adulti vulnerabili".

La Commissione Europea ha dichiarato di ritenere che TikTok dovrebbe cambiare il "design di base" del suo servizio. 

I giganti dei social media affrontano un processo storico sulla dipendenza dei bambini

Le più grandi società di social media del mondo, inclusa TikTok, stanno affrontando una serie di processi storici che mirano a renderle responsabili dei danni ai bambini che utilizzano i loro servizi nel 2026. Il 9 febbraio ha segnato l'inizio delle dichiarazioni di apertura in uno di questi processi tenuto presso la Corte Superiore della Contea di Los Angeles.

Ci sono accuse secondo cui YouTube di Google e la società madre di Instagram, Meta, danneggiano e creano dipendenza intenzionalmente nei bambini. I nomi originali della causa, TikTok e Snap, hanno raggiunto accordi per importi sconosciuti.

Un avvocato americano, Mark Lanier, ha detto nella dichiarazione di apertura che il caso è "facile come l'ABC", che ha detto sta per "creare dipendenza nei cervelli dei bambini". L'avvocato ha anche definito Google e Meta "due delle società più ricche della storia" che hanno "ingegnerizzato la dipendenza nei cervelli dei bambini".

L'avvocato dell'accusa Donald Migliori ha affermato nella sua dichiarazione di apertura che Meta ha fabbricato affermazioni sulla sicurezza delle sue piattaforme progettando i suoi algoritmi per mantenere i giovani online pur essendo consapevole che i giovani sono vulnerabili allo sfruttamento sessuale sui social media.

Fatti vedere dove conta. Pubblicizza su Cryptopolitan Research e raggiungi gli investitori e i costruttori più perspicaci del crypto.

Disclaimer: gli articoli ripubblicati su questo sito provengono da piattaforme pubbliche e sono forniti esclusivamente a scopo informativo. Non riflettono necessariamente le opinioni di MEXC. Tutti i diritti rimangono agli autori originali. Se ritieni che un contenuto violi i diritti di terze parti, contatta service@support.mexc.com per la rimozione. MEXC non fornisce alcuna garanzia in merito all'accuratezza, completezza o tempestività del contenuto e non è responsabile per eventuali azioni intraprese sulla base delle informazioni fornite. Il contenuto non costituisce consulenza finanziaria, legale o professionale di altro tipo, né deve essere considerato una raccomandazione o un'approvazione da parte di MEXC.