O Discord anunciou a implementação de um novo pacote de medidas voltadas à proteção de adolescentes na plataforma. As mudanças passam a valer globalmente a partir do início de março e incluem reforço nos controles de comunicação, criação de áreas com acesso restrito por idade, ampliação das configurações de privacidade e adoção de mecanismos mais rigorosos de verificação etária.
Com as novas diretrizes, usuários a partir de 13 anos — tanto recém-cadastrados quanto antigos — precisarão comprovar a idade para acessar determinadas áreas e alterar configurações específicas. O sistema também identificará automaticamente contas adultas, evitando a necessidade de validações repetidas a cada acesso.
A comprovação de idade poderá ser feita por meio de reconhecimento facial via fotografia ou pelo envio de documento oficial. Segundo a empresa, os documentos encaminhados serão descartados após a validação. A partir da verificação, o conteúdo exibido será ajustado conforme a faixa etária do usuário.
Outra iniciativa anunciada é a criação do Conselho de Adolescentes, formado por 10 a 12 jovens. O grupo terá papel consultivo e deverá contribuir com sugestões e avaliações sobre futuras políticas da plataforma.
Movimento global por maior proteção
O Discord não é a única empresa a reforçar mecanismos de segurança para o público infantojuvenil. No fim de janeiro, o YouTube anunciou o uso de inteligência artificial para identificar usuários menores de idade em países como Brasil e Austrália — iniciativa que já vinha sendo aplicada em parte da Europa.
Também em janeiro, o Roblox, popular plataforma de jogos online, passou a exigir comprovação de idade para participação no chat. A medida provocou protestos de usuários mirins dentro do próprio ambiente virtual.
As decisões ocorrem em meio a um debate internacional sobre a segurança digital de crianças e adolescentes. Em dezembro, a Austrália aprovou a proibição do uso de redes sociais por menores de 16 anos. A Nova Zelândia estuda proposta semelhante. Países como França, Dinamarca, Noruega e Espanha já adotaram restrições ou regulamentações específicas para essa faixa etária.
No Brasil, não há previsão de veto ao uso de redes sociais por menores, mas o chamado Estatuto Digital da Criança e do Adolescente estabelece que plataformas e lojas de aplicativos devem assumir responsabilidade na proteção e segurança desse público.
A tendência aponta para um cenário de maior regulação e monitoramento das interações online, com empresas buscando adaptar suas políticas diante da crescente pressão por ambientes digitais mais seguros para jovens usuários.







