Hoje, vamos falar sobre o avanço do Bard, a resposta do Google ao ChatGPT, e como ele resolve um dos problemas mais urgentes dos chatbots hoje: a tendência dos chatbots de inventar coisas.

Desde o momento em que os chatbots foram introduzidos no ano passado, os seus criadores alertaram-nos para não confiar neles. O texto gerado por ferramentas como o ChatGPT não se baseia em um banco de dados de fatos estabelecidos. Em vez disso, o chatbot é preditivo – fazendo suposições probabilísticas sobre quais palavras parecem corretas com base em um grande corpus de texto treinado em seu grande modelo de linguagem subjacente.

Como resultado, os chatbots muitas vezes “cometem erros com confiança”, no jargão da indústria. Isso pode enganar até mesmo pessoas altamente instruídas, como vimos este ano com um advogado enviando citações geradas pelo ChatGPT – sem perceber que todos os casos foram criados do nada.

Esta situação explica por que considero os chatbots inúteis como assistentes de pesquisa. Eles dirão tudo o que você quiser em questão de segundos, mas na maioria dos casos não citarão seu trabalho. Portanto, você precisa gastar muito tempo pesquisando se as respostas são verdadeiras – o que muitas vezes anula o propósito de usar um chatbot em primeiro lugar.

Quando o Bard do Google foi lançado no início deste ano, ele apresentava um botão “GoogleIt” que enviava sua consulta ao mecanismo de busca da empresa. Embora isso permita que você obtenha uma segunda opinião sobre o resultado do chatbot mais rapidamente, ainda coloca sobre você a responsabilidade de determinar se é verdadeiro ou falso.

Mas a partir de hoje, Bard fará mais por você. Depois que o chatbot responder a uma de suas perguntas, clique no botão Google para “revisar” sua resposta. Veja como a empresa explicou isso em uma postagem no blog:

Ao clicar no ícone “G”, “Bard” lerá suas respostas e avaliará se há conteúdo na web que corrobore suas respostas. Se a reivindicação puder ser avaliada, você pode clicar na frase destacada para saber mais sobre informações de apoio ou contraditórias encontradas pela pesquisa.

Uma inspeção cuidadosa da consulta torna muitas frases nas respostas verdes ou marrons. Respostas destacadas em verde com link para a página web de referência; passe o mouse sobre uma dessas páginas e Bard mostrará de onde vieram as informações. As respostas destacadas em marrom indicam que Bard não sabe a origem da mensagem e o destaque pode ser um erro.

Por exemplo, quando verifiquei novamente a resposta de Bard à minha pergunta sobre a história da banda Radiohead, encontrei muitas frases destacadas em verde que correspondiam ao meu próprio conhecimento. Mas também torna a frase marrom: “Eles ganharam vários prêmios, incluindo seis Grammy Awards e nove Brit Awards”. Passe o mouse sobre esta frase e os resultados de pesquisa do Google revelarão informações conflitantes; na verdade, o Radiohead nunca ganhou um único Brit Award, muito menos nove.

“Vou contar a vocês sobre uma tragédia que aconteceu em minha vida”, disse-me Jack Krawczyk, diretor sênior de produto do Google, em uma entrevista na semana passada.

Krawczyk estava cozinhando peixe-espada em casa, e o cheiro do processo de cozimento parecia permear toda a casa. Ele usou Bard para procurar maneiras de desodorizar e depois examinou os resultados para separar os fatos da ficção. Acontece que uma limpeza profunda da cozinha não resolve o problema, como disse originalmente o chatbot. No entanto, manter tigelas de bicarbonato de sódio em casa pode ajudar.

Krawczyk me disse que, como as pessoas usam o Bard de tantas maneiras diferentes, muitas vezes não é necessário verificar novamente. (Você normalmente não pediria para verificar um poema que você escreveu, ou um e-mail que ele redigiu, etc.)

Embora a verificação dupla represente uma melhoria clara, muitas vezes ainda exige que você retire todas as citações e certifique-se de que Bard está interpretando os resultados da pesquisa corretamente. Pelo menos quando se trata de pesquisa, os humanos ainda seguram a mão da IA, assim como a IA segura a nossa.

No entanto, este é um desenvolvimento bem-vindo.

“Podemos ter criado o primeiro modelo de linguagem que admite ter cometido um erro”, disse Krawczyk. “Dada a importância de melhorar estes modelos, garantir que os modelos de IA admitam erros com precisão deve ser uma prioridade máxima para a indústria.”

Na terça-feira, Bard recebeu outra grande atualização: agora ele pode se conectar ao Gmail, Docs, Drive e alguns outros produtos do Google, incluindo YouTube e Maps. A chamada extensão permite pesquisar, resumir e tirar dúvidas em tempo real sobre documentos armazenados na sua conta Google.

Atualmente, está limitado a contas pessoais, o que limita bastante sua utilidade, mas como forma alternativa de navegar na web, às vezes é divertido - por exemplo, quando pedi para me mostrar alguns ótimos vídeos sobre como começar com design de interiores, ele fez um ótimo trabalho. (É bom que esses vídeos possam ser reproduzidos online na janela de respostas do Bard.)