A inteligência artificial (IA) e os algoritmos têm a capacidade e estão a ser utilizados para alimentar a radicalização, aumentar a polarização, espalhar o racismo e a instabilidade política, de acordo com um académico da Universidade de Lancaster. O professor de segurança internacional Joe Burton acredita que a inteligência artificial e os algoritmos não são apenas ferramentas usadas pelas agências de segurança nacional para impedir atividades cibernéticas maliciosas. Ele acredita que a inteligência artificial e os algoritmos também podem alimentar a polarização, a radicalização e a violência política, representando assim uma ameaça à própria segurança nacional.

Além disso, disse ele, o processo de securitização (ver a tecnologia como uma ameaça existencial) desempenha um papel importante na concepção, utilização e consequências prejudiciais da inteligência artificial.

O artigo do professor Burton foi publicado recentemente na influente revista "Technology in Society" da Elsevier.

“A inteligência artificial é muitas vezes vista como uma ferramenta para combater o extremismo violento, e este é o outro lado do debate”, disse ele.

Este artigo explora como a IA tem sido securitizada historicamente e nas suas representações nos meios de comunicação social e na cultura popular, explorando exemplos modernos de IA com efeitos polarizadores e radicalizantes que contribuem para a violência política.

O artigo cita a clássica série de filmes “O Exterminador do Futuro”, que retrata a carnificina perpetrada por uma inteligência artificial “sofisticada e cruel”. Mais do que qualquer outro filme, ele aumentou a consciência pública sobre a inteligência artificial e o medo de que a consciência das máquinas pudesse levar a consequências devastadoras para a humanidade – neste caso, a guerra nuclear e a tentativa deliberada de exterminar uma espécie.

O professor Burton escreve: “A desconfiança nas máquinas, os medos associados a elas e a sua ligação às ameaças biológicas, nucleares e genéticas à humanidade levaram os governos e as agências de segurança nacional a quererem influenciar o desenvolvimento da tecnologia para reduzir os riscos e (em alguns casos) explorar o seu potencial positivo”.

O professor Burton disse que os drones avançados, como os utilizados na guerra na Ucrânia, são agora capazes de autonomia total, incluindo capacidades como reconhecimento e identificação de alvos. Enquanto os países, incluindo as Nações Unidas, se envolvem num debate amplo e influente apelando à proibição dos “robôs assassinos” e à inclusão dos seres humanos nas decisões de vida ou morte, a aceleração e integração de drones armados continua.

Na segurança cibernética – a segurança de computadores e redes de computadores, a inteligência artificial está sendo amplamente utilizada, sendo as áreas mais comuns a guerra psicológica de informação e de rede.

As ações do governo Putin contra o processo eleitoral dos EUA em 2016 e o ​​subsequente escândalo da Cambridge Analytica demonstraram o potencial da IA ​​para ser combinada com big data, incluindo as redes sociais, para produzir efeitos políticos centrados na polarização, encorajando crenças radicais e manipulando grupos de identidade. Demonstrou o poder e o potencial da IA ​​para dividir a sociedade.

A inteligência artificial tem sido vista como um meio positivo de rastrear o vírus durante a pandemia, mas também levantou preocupações sobre a privacidade e os direitos humanos.

O artigo estuda a própria tecnologia de inteligência artificial e acredita que existem problemas com o design da inteligência artificial, os dados em que ela se baseia, como é utilizada e seus resultados e impactos. No final do artigo, envia uma mensagem forte aos envolvidos na investigação em segurança cibernética e relações internacionais.

O professor Burton, especialista em conflitos cibernéticos e tecnologias emergentes e membro do programa de Segurança e Ciência Protetora da universidade, escreveu: "A inteligência artificial tem a capacidade de, sem dúvida, transformar a sociedade de maneiras positivas, mas também apresenta riscos que precisamos compreender e gerenciar melhor. Compreenda a natureza divisiva desta tecnologia em todas as fases de seu desenvolvimento e uso. As implicações são claramente críticas. Os estudiosos que trabalham em segurança cibernética e relações internacionais têm a oportunidade de incorporar esses fatores na agenda emergente de pesquisa de IA e evitar ver a IA como uma tecnologia politicamente neutra. Por outras palavras, a segurança dos sistemas de IA, e a forma como podem ser utilizados nas lutas geopolíticas internacionais, não devem sobrepor-se às preocupações sobre os seus impactos sociais."

Fonte compilada: ScitechDaily