De acordo com o Financial Times, o TikTok prepara-se para despedir centenas de funcionários que trabalham na moderação e segurança de conteúdos em Londres. A medida ocorre no momento em que a Lei de Segurança Cibernética do Reino Unido entra em pleno vigor, exigindo que as empresas internacionais de tecnologia bloqueiem a propagação de conteúdo perigoso ou enfrentem multas pesadas.

Na manhã de sexta-feira, horário local, os funcionários britânicos do departamento de confiança e segurança da TikTok receberam um e-mail. “Estamos considerando não realizar mais trabalhos de auditoria e garantia de qualidade em nosso escritório em Londres”, dizia o e-mail, já que a empresa espera usar IA para automatizar este aspecto do trabalho.

A TikTok disse que, como parte da reorganização global do trabalho de revisão de conteúdo, centenas de cargos na equipe de confiança e segurança da empresa no Reino Unido e no Sul e Sudeste Asiático podem ser afetados, e a empresa lançou um processo coletivo de consulta trabalhista.

“Os ajustes propostos visam concentrar a expertise operacional em regiões específicas.” O e-mail afirmava que o TikTok realizaria uma reunião geral com os funcionários afetados na manhã de sexta-feira.

A TikTok também observou que “os avanços tecnológicos, como melhorias em grandes modelos de linguagem, estão remodelando a forma como trabalhamos”.

O Sindicato dos Trabalhadores em Comunicações (CWU) estima que cerca de 300 pessoas trabalham na unidade London Trust and Safety da TikTok, a maioria das quais será afetada.

Os cortes de empregos ocorrem poucas semanas depois que as principais disposições da histórica Lei de Segurança Cibernética da Grã-Bretanha entraram em vigor. A lei exige que as empresas verifiquem a idade dos usuários que tentam acessar conteúdo potencialmente prejudicial. Para cumprir as novas regulamentações e limitar o acesso a conteúdo prejudicial para usuários menores de 18 anos, o TikTok lançou novos controles de “verificação de idade” no mês passado.

A ascensão da IA

Semelhante a outras empresas de mídia social, como YouTube e Meta, a TikTok disse que planeja contar com tecnologia de aprendizado de máquina para “adivinhar” a idade de um usuário com base em como ele usa a plataforma e com quem interage. No entanto, estes sistemas baseados em IA ainda não foram aprovados pelo regulador Ofcom. Atualmente, o Ofcom está avaliando se o sistema de IA está em conformidade com os regulamentos.

Neste momento, o TikTok está a concentrar-se na redução ou encerramento de equipas de moderação locais em vários mercados e na concentração do trabalho relacionado em centros regionais como Dublin e Lisboa. A TikTok também anunciou este mês o fechamento de sua equipe de confiança e segurança em Berlim como parte de uma reorganização global.

TikTok disse: “Continuamos a reorganização que iniciamos no ano passado para fortalecer o modelo operacional global do departamento de confiança e segurança, que inclui a concentração de nossas operações em menos regiões para garantir que possamos maximizar a eficiência e a velocidade, e continuar a melhorar esta função que é crítica para a empresa com a ajuda de avanços tecnológicos”.

O organizador nacional da CWU, John Chadfield, destacou: "Eles estão tentando substituir completamente os auditores humanos pela IA, embora a abordagem real nesta fase seja mover as operações para áreas com custos trabalhistas mais baixos. A IA faz com que sua abordagem pareça sofisticada, mas na verdade eles estão apenas terceirizando as operações no exterior."

As demissões ocorrem no momento em que a receita da TikTok no Reino Unido e na Europa continua a aumentar. De acordo com os últimos dados financeiros divulgados esta semana, a receita do TikTok no Reino Unido e na Europa em 2024 aumentará 38% em termos anuais, para 6,3 mil milhões de dólares, enquanto as perdas antes de impostos diminuíram de 1,4 mil milhões de dólares em 2023 para 485 milhões de dólares no ano passado. Os dados vêm de registros regulatórios do Reino Unido e abrangem as operações da TikTok no Reino Unido e na Europa.