O governo do Reino Unido está pressionando empresas como OpenAI, Anthropic e Google a explicarem o funcionamento interno de seus grandes modelos de linguagem (LLMs). Embora o código de alguns modelos seja público, modelos como GPT-3.5 e GPT-4 não o são, e a OpenAI reluta muito em compartilhar muitos detalhes.

O Reino Unido prepara-se para acolher uma nova cimeira global sobre inteligência artificial, que reunirá governos, empresas e investigadores para examinar os riscos colocados pela inteligência artificial e discutir como reduzi-los.

Uma das razões pelas quais as empresas estão relutantes em partilhar os seus dados internos é que tal comportamento pode revelar informações proprietárias sobre os seus produtos. Se os agentes mal-intencionados souberem mais informações privilegiadas, isso também poderá tornar os modelos de inteligência artificial vulneráveis ​​a ataques cibernéticos.

Segundo o Financial Times, uma das coisas que o governo quer verificar são os pesos dos modelos, que definem a força das conexões entre os neurônios nas diferentes camadas do modelo. Atualmente, as empresas de IA não são obrigadas a partilhar estes detalhes, mas tem havido apelos para uma maior transparência a este respeito.

O Reino Unido realizará a sua primeira cimeira em Bletchley Park em Novembro. Bletchley Park ocupa um lugar importante na história da computação, pois foi aqui que as mensagens nazistas foram descriptografadas. O teste de Turing relacionado à inteligência artificial leva o nome de Alan Turing, que também decifrou códigos lá.

O Financial Times observou que DeepMind, OpenAI e Anthropic do Google concordaram em junho em abrir seus modelos ao governo britânico para fins de pesquisa e segurança. Infelizmente, as partes não chegaram a acordo sobre o âmbito e os detalhes técnicos da abertura naquela altura. Agora, o nível de abertura exigido pelo governo é bastante elevado.

Em última análise, para que a cimeira seja bem-sucedida, os participantes devem compreender plenamente como funcionam os modelos, para que possam compreender melhor os seus perigos. Se eles têm acesso adequado aos modelos é outra questão.