A União Europeia está a intensificar a regulamentação das plataformas de redes sociais, com planos para se concentrar na repressão dos recursos de “design viciante” em aplicações como o TikTok e o Instagram que visam menores. A presidente da Comissão Europeia, von der Leyen, disse na Cimeira Europeia "Inteligência Artificial e Crianças" na Dinamarca, na terça-feira, que a UE tomará medidas contra a plataforma ainda este ano e promoverá a implementação de regulamentos relevantes.

Von der Leyen destacou a UE por tomar medidas contra o “design viciante” do TikTok, que inclui recursos como rolagem infinita, reprodução automática e notificações push contínuas. Ela também disse que o mesmo problema também existe no Instagram e no Facebook, de propriedade da Meta. Considera-se que estas plataformas não conseguiram impor eficazmente a sua idade mínima de 13 anos. Ela sublinhou que a UE estava a investigar plataformas que enviam as crianças para uma “toca de coelho de conteúdos nocivos”, como vídeos que promovem distúrbios alimentares, como a anorexia ou a automutilação.

Para reforçar a proteção de menores online, a Comissão Europeia também desenvolveu a sua própria aplicação de verificação de idade, que von der Leyen disse ter os “mais altos padrões de privacidade do mundo”. A aplicação estará disponível para os Estados-membros integrarem nas suas respectivas carteiras digitais, enquanto o processo de verificação de idade pode ser facilmente acedido e executado através de uma plataforma online. “Não há mais desculpas – a tecnologia de verificação de idade está aqui”, disse ela. A Comissão Europeia poderá ter uma proposta jurídica pronta já neste verão e está atualmente aguardando propostas do seu Grupo Especial de Peritos sobre Segurança Online de Crianças.

Esta ronda de actualizações regulamentares sobre questões de segurança infantil nas plataformas sociais tem como pano de fundo o “aperto da regulamentação” geral da União Europeia sobre os gigantes da tecnologia dos EUA. Ao longo do ano passado, a União Europeia emitiu sucessivamente multas totalizando mais de 7 mil milhões de dólares a uma série de grandes empresas tecnológicas com base em leis antitrust e de concorrência, causando insatisfação nos Estados Unidos. Alguns responsáveis ​​alertaram que, como resultado, a UE poderá perder algumas oportunidades económicas na inteligência artificial. O presidente dos EUA, Donald Trump, está tentando combater essas penalidades contra as empresas dos EUA. Empresas como Apple, Meta e Google enfrentaram pesadas multas por supostamente violarem os regulamentos da UE e apresentaram objeções.

Em fevereiro deste ano, Trump assinou um memorando presidencial propondo considerar a imposição de tarifas e outros métodos para “lutar contra impostos sobre serviços digitais, multas e políticas injustas relacionadas impostas por governos estrangeiros contra empresas dos EUA”. Entretanto, a União Europeia também lançou uma investigação no início deste ano sobre o X de Elon Musk (antigo Twitter) sobre alegações de que o chatbot Grok da plataforma gerou e distribuiu imagens pornográficas não consensuais de mulheres e crianças.

O escrutínio jurídico em torno da segurança de menores nas redes sociais está a aquecer em todo o mundo. Em março, um processo judicial de grande repercussão nos EUA determinou que alguns recursos de design do Meta e do YouTube – incluindo rolagem infinita e reprodução automática – incentivavam o comportamento viciante em adolescentes e causavam danos à sua saúde mental. Recentemente, uma investigação preliminar da Comissão Europeia também concluiu que a Meta não conseguiu impedir eficazmente o acesso de menores de 13 anos à sua plataforma. Os menores poderiam facilmente contornar os mecanismos de detecção existentes e, portanto, foram considerados como tendo violado os requisitos relevantes da Lei dos Serviços Digitais da UE.

Para além das iniciativas a nível da UE, alguns países estão a tentar ir mais longe. Em dezembro deste ano, a Austrália tornou-se o primeiro a implementar uma “proibição total” das redes sociais para menores de 16 anos, proibindo menores de utilizarem as principais plataformas sociais. Países europeus como Espanha, França e Reino Unido também estão a pressionar por legislação semelhante, planeando isolar crianças e adolescentes das redes sociais tanto quanto possível, aumentando os limites de idade, forçando a verificação de identidade ou restringindo diretamente o acesso. Sob múltiplas pressões regulamentares, plataformas como o TikTok e o Instagram poderão ter de fazer ajustes profundos nos designs dos seus principais produtos no futuro para cumprirem os padrões mais elevados da União Europeia e de outros países para a proteção online das crianças.