A Wikipedia é um dos projetos colaborativos de maior sucesso da história. É a maior enciclopédia já criada, escrita e editada por dezenas de milhares de voluntários, conhecidos como wikipedistas. Embora qualquer pessoa possa editar qualquer página, milhões de usuários em todo o mundo ainda dependem dela como primeira fonte de informação, bem como para verificação de fatos e pesquisas aprofundadas. Como a Wikipédia depende inteiramente dos esforços dos seus editores voluntários, o seu sucesso pode ser especialmente afetado pelo discurso tóxico.

Ivan Smirnov e colegas estudaram como o trabalho voluntário no site Wikipedia foi afetado por comentários maliciosos na página “Conversas de usuários” conectada a cada editor. Todos os 57 milhões de comentários postados em páginas de conversação de usuários por 8,5 milhões de editores nas seis edições linguísticas mais ativas da Wikipédia foram analisados ​​para examinar o impacto potencial da toxicidade no comportamento editorial. Os resultados revelaram que os comentários tóxicos estão sempre relacionados à redução da atividade do editor, o que equivale a uma redução de 0,5 a 2 dias ativos para cada usuário no curto prazo. Considerando o número de colaboradores ativos da Wikipédia, isso equivale a muitos anos de perda de produtividade.

Comentários tóxicos foram identificados por um algoritmo de detecção de toxicidade desenvolvido pelo projeto Pivot API. Uma análise de todos os 57 milhões de comentários postados em páginas de conversação de usuários nos últimos 20 anos por editores das seis versões linguísticas mais ativas da Wikipédia (inglês, alemão, francês, espanhol, italiano e russo) mostra que comentários tóxicos em páginas de conversação de usuários levam, em média, a uma diminuição na atividade do editor. Este efeito é especialmente pronunciado quando comentários tóxicos são dirigidos a novas pessoas.

Quando comentários tóxicos aparecem na página de um usuário quando ele contribui para a Wikipédia pela primeira ou segunda vez, o usuário tem 1,8 vezes menos probabilidade de continuar contribuindo em comparação com usuários que não recebem comentários tóxicos. No geral, a toxicidade pode ter resultado na perda de 265 pessoas-ano de trabalho voluntário na versão em inglês da Wikipedia e pode ter resultado na redução do crescimento da base de colaboradores do site. A toxicidade também pode contribuir para a contínua falta de diversidade racial e de gênero entre os usuários da Wikipédia, disseram os autores.

O impacto dos comentários tóxicos provavelmente será maior no longo prazo, pois aumentam significativamente o risco de um editor abandonar totalmente o projeto. Utilizando um modelo baseado em agentes, os investigadores demonstraram que os ataques tóxicos na Wikipédia têm o potencial de impedir o progresso de todo o projeto, destacando a importância de reduzir o discurso tóxico em plataformas colaborativas como a Wikipédia para garantir o seu sucesso contínuo.