Segundo notícia de 29 de dezembro de 2023, ChatGPT e outros chatbots de inteligência artificial já podem gerar imagens e textos realistas que parecem criação humana, chocando o mundo. Os especialistas em IA prevêem que, até 2024, as ferramentas de inteligência artificial serão mais poderosas e as regulamentações aumentarão, continuando a mudar a forma como interagimos com a tecnologia.
No início deste mês, a conferência NeurIPS foi realizada em Nova Orleans, EUA, com a participação de milhares de pesquisadores de IA e executivos do setor. Eles discutiram o rumo que a indústria está tomando após um grande ano em 2023.
Aravind Srinivas, cofundador e CEO da startup Perplexity, acredita que em 2024 uma empresa lançará um software de inteligência artificial cujo desempenho será comparável ou até melhor que o GPT-4. GPT-4 é um modelo de linguagem em larga escala desenvolvido pela OpenAI e é a tecnologia básica de suporte do ChatGPT. Srinivas prevê que este modelo virá de um dos muitos concorrentes da OpenAI.
No próximo ano, novos produtos de inteligência artificial não só serão mais poderosos, mas também proporcionarão novos cenários de aplicação. Por exemplo, os agentes de IA podem realizar tarefas mais complexas com intervenção humana limitada, como fazer planos de viagem ou encomendar suprimentos. Ao mesmo tempo, outros produtos de inteligência artificial transcenderão as limitações dos avisos baseados em texto e alcançarão entradas e saídas mais diversificadas.
Oriol Vinyals, vice-presidente de pesquisa do Google DeepMind, é o líder técnico do Gemini, o grande modelo de inteligência artificial recém-lançado da empresa. Ele gostaria de ver mais sistemas de IA que pudessem reagir a várias combinações de entradas, incluindo texto, fala e imagens, e gerar diferentes tipos de resultados. A demonstração do Google no evento de lançamento do Gemini mostrou o que é possível.
Margaret Mitchell, cientista-chefe de ética da startup HuggingFace, disse que à medida que a tecnologia continua a avançar, filmes e performances musicais inteiramente gerados por inteligência artificial podem aparecer no próximo ano. Ao mesmo tempo, o problema dos bots autónomos que incitam ao ódio e espalham desinformação online irá intensificar-se. Isto levará a um maior escrutínio público dos impactos e danos da inteligência artificial.
“Esses sistemas de IA definitivamente causarão mais disputas ou ações judiciais”, disse Mitchell. Sinais disso já começam a surgir. O New York Times processou a OpenAI e a Microsoft na quarta-feira, acusando-as de usar seu conteúdo para treinar serviços de inteligência artificial.
Além disso, muitas celebridades, incluindo o vencedor do Prêmio Pulitzer Michael Chabon e a comediante Sarah Silverman, já processaram OpenAI e Meta por motivos semelhantes. No início deste mês, um tribunal britânico decidiu que o processo de direitos autorais da Getty Images contra a StabilityAI poderia prosseguir para julgamento.
OpenAI tem acordos com grandes editoras como Axel Springer SE e The Associated Press. É provável que esses negócios continuem a aumentar em 2024.
Regras regulatórias também poderão ser introduzidas no próximo ano. Abeba Birhane, cientista cognitiva e consultora sênior para responsabilidade de IA na Mozilla Foundation, disse que espera que mais legislação sobre IA surja em 2024, mas teme que seja fortemente influenciada por interesses corporativos. Nos Estados Unidos, em particular, os legisladores reuniram-se várias vezes com executivos da IA para discutir políticas. “Tenha cuidado com interesses emaranhados ao adotar suas sugestões”, disse ela.
Embora a inteligência artificial se torne mais avançada e demonstre perturbação em algumas indústrias, Mitchell espera que o entusiasmo intenso do ano passado diminua um pouco em 2024, à medida que as pessoas percebam que estas ferramentas nem sempre são tão mágicas como inicialmente pareciam. “Meu palpite é que o pêndulo da inteligência artificial vai oscilar”, disse ela. “As pessoas deixarão de admirar os grandes modelos generativos e passarão a tratá-los de forma mais racional.”