A Meta encerrou recentemente discretamente a sua parceria com a empresa de terceirização Sama, depois que a empresa foi incumbida de usar dados de imagem coletados pelos óculos inteligentes Ray-Ban para fornecer material de treinamento para o sistema generativo de IA da Meta. Posteriormente, a Sama anunciou a demissão de 1.108 funcionários, alguns dos quais disseram ter sido demitidos em “retaliação” após divulgar à mídia que os vídeos que analisaram continham uma grande quantidade de conteúdo altamente privado.

O incidente veio à tona pela primeira vez em fevereiro deste ano. Funcionários da Sama em Nairobi, no Quénia, disseram a dois jornais suecos que o seu trabalho incluía rotular vídeos de óculos inteligentes, muitas vezes sem que as pessoas nas filmagens soubessem que estavam a ser filmados. Esses óculos inteligentes Ray-Ban têm um assistente de IA integrado e precisam gravar áudio e vídeo continuamente, parte dos quais serão usados como dados de treinamento de IA, e então anotadores humanos complementarão e melhorarão o conteúdo que é difícil de entender pela IA.
A Meta afirmou que seus termos de serviço explicam aos usuários como os dados relevantes serão usados e que os óculos devem obter autorização explícita do usuário antes de ativar o modo AI. No entanto, vários funcionários da Sama disseram que as imagens com as quais tiveram contacto não incluíam apenas informações financeiras, como contas bancárias e conversas privadas, mas também envolviam imagens de nus na casa de banho e cenas de comportamento íntimo, que claramente excediam os limites cognitivos do público para a recolha rotineira de dados.
Depois que as reportagens investigativas da mídia foram divulgadas, a Meta anunciou que estava cancelando seu contrato com a Sama, dizendo que a empresa "não cumpriu os padrões da Meta". A Sama respondeu imediatamente que nunca havia recebido nenhum feedback formal de que a qualidade do seu trabalho era “inferior”. Ao mesmo tempo, alguns funcionários revelaram que a empresa, no contexto de medidas de segurança atualizadas, providenciou para que eles "trabalhassem" quase sem nada para fazer, e era suspeita de usar investigações internas para atingir "denunciantes" que deram a notícia à mídia.
Esta não é a primeira vez que Sama se envolve em controvérsias trabalhistas e éticas relacionadas à IA. Esta empresa de terceirização sediada na Califórnia foi contratada pela OpenAI para fornecer serviços de treinamento para ChatGPT, que será lançado oficialmente em 2022. Para reduzir a produção de conteúdo prejudicial por chatbots, Sama providenciou para que funcionários quenianos revisassem e filtrassem textos e imagens extremamente impactantes conteúdo por um longo período por menos de US$ 2 por dia. O trabalho relacionado foi exposto a causar danos óbvios à saúde mental dos funcionários. Nesse mesmo ano, Meta e Sama também enfrentaram acusações de recrutamento de funcionários através de anúncios de emprego enganosos, de constituir tráfico de pessoas disfarçado e de despedir trabalhadores que tentavam formar um sindicato.
Além das questões de direitos trabalhistas, este incidente trouxe mais uma vez os riscos de privacidade dos óculos inteligentes para o primeiro plano. Já na era do Google Glass, as suas capacidades de gravação foram fortemente contestadas pela opinião pública devido à possibilidade de “vigilância invisível” em espaços públicos. Agora, depois que a Meta “relançou” a categoria com produtos mais discretos e próximos da aparência dos óculos do dia a dia, alguns usuários foram fotografados usando-os durante processos judiciais, alguns permitiram a gravação durante operações policiais e descobriu-se que estudantes usavam óculos inteligentes para colar em exames.
À medida que os dispositivos vestíveis continuam a aquecer, outros gigantes da tecnologia também estão a acelerar a sua implantação. Segundo relatos, a Apple está atualmente testando até quatro designs de óculos inteligentes, com o objetivo de competir de frente com os produtos Ray-Ban da Meta no futuro. Com a tendência de integração profunda da IA e dos dispositivos de detecção, como encontrar um equilíbrio entre experiência inovadora, privacidade pessoal e direitos laborais está a tornar-se um problema central que a indústria tecnológica não pode evitar.