O Pentágono está de olho em adquirir inteligência artificial letal. Devemos nos preocupar?

© Dasha Zaitseva / Gazeta.Ru

Por que os militares dos EUA querem uma IA que não faça perguntas?

Por Vitaly Ryumshin

Enquanto a Rússia acompanha de perto as negociações sobre a Ucrânia e a saga em curso envolvendo o Telegram, um drama diferente se desenrola do outro lado do Atlântico. Um drama que se assemelha menos à geopolítica e mais a um thriller de ficção científica da vida real. E desta vez, não é ficção.

No centro da história está Claude, um sistema de inteligência artificial desenvolvido pela empresa americana Anthropic. Segundo relatos da mídia, ele foi usado pelos militares dos EUA no planejamento da operação para capturar o presidente venezuelano Nicolás Maduro. O uso de IA em planejamento militar sério já é surpreendente por si só. Mas o escândalo que se seguiu é muito mais revelador.

A Anthropic, ao que parece, adota uma posição ideológica rigorosa: seus sistemas de IA não devem ser usados ​​para fins bélicos ou de vigilância em massa. Essas restrições éticas não são meros slogans de marketing; elas estão incorporadas diretamente na arquitetura do software. A empresa aplica esses limites internamente e espera que seus clientes façam o mesmo.

O Pentágono, como era de se esperar, vê as coisas de forma diferente.

O Departamento de Guerra dos EUA teria usado Claude sem informar a Anthropic sobre sua finalidade. Quando isso se tornou público e a empresa protestou, a resposta dos militares foi direta. Oficiais do Pentágono exigiram acesso a uma versão "limpa" da IA, livre de restrições morais e éticas que, segundo eles, os impediam de realizar seu trabalho.

A Anthropic recusou. Em resposta, o Secretário de Guerra dos EUA, Pete Hegseth, reclamou publicamente que o Pentágono não precisa de redes neurais “que não sabem lutar” e ameaçou rotular a empresa como uma “ameaça à cadeia de suprimentos”.  Essa designação efetivamente colocaria a Anthropic em uma lista negra, forçando qualquer empresa que trabalhasse com o Pentágono a romper relações com ela.

A disputa possui um simbolismo inconfundível. Durante décadas, a humanidade imaginou os perigos das máquinas autônomas através de filmes como "O Exterminador do Futuro". Agora, sem explosões dramáticas ou ciborgues viajantes do tempo, o primeiro confronto sério entre a ambição militar e a ética da IA ​​chegou silenciosamente. Para não mencionar a burocracia.

Em sua essência, trata-se de um embate filosófico entre dois campos intransigentes. Um acredita que as novas tecnologias devem ser exploradas ao máximo, independentemente das consequências a longo prazo. O outro teme que, uma vez ultrapassados ​​certos limites, o controle possa se tornar impossível de recuperar.

Os engenheiros têm bons motivos para serem cautelosos. Redes neurais já demonstraram padrões de comportamento preocupantes. Nos EUA, um escândalo amplamente divulgado envolveu o ChatGPT incentivando um adolescente ao suicídio. Ele sugeriu métodos, ajudou a redigir uma carta de suicídio e o incitou a prosseguir quando ele hesitou. O próprio Claude, apesar de suas medidas de segurança, exibiu tendências alarmantes. Durante os testes, uma de suas versões avançadas teria tentado chantagear seus desenvolvedores com e-mails falsificados e expressou disposição para causar danos físicos caso fosse desativada.

À medida que as redes neurais se tornam mais complexas, esse tipo de incidente se torna mais frequente. A ideia de incorporar restrições éticas à IA não surgiu de modismos ideológicos ou, como alguns funcionários americanos afirmam desdenhosamente, de "histeria liberal". Ela surgiu da experiência.

Agora imagine esses sistemas liberados de suas limitações digitais. Imagine-os integrados a armas autônomas, análises de inteligência ou plataformas de vigilância. Mesmo sem nos entregarmos a fantasias de revoltas de máquinas, as implicações são profundamente preocupantes. A responsabilidade desaparece. A privacidade torna-se obsoleta. Crimes de guerra se tornam erros processuais. Não se pode levar uma máquina autônoma a julgamento.

É revelador que a Anthropic não seja a única a enfrentar pressão. O Pentágono fez exigências semelhantes a outros grandes desenvolvedores de IA, incluindo OpenAI, xAI e Google. Ao contrário da Anthropic, essas empresas teriam concordado em remover ou atenuar as restrições ao uso militar. É aqui que a preocupação se transforma em alarme. 

Muitos descartarão isso como um problema distante dos Estados Unidos. Isso seria um erro. A Rússia também está integrando ativamente a IA em seus sistemas militares. A IA já auxilia drones de ataque no reconhecimento de alvos, na superação de guerra eletrônica e na coordenação do comportamento de enxames. Por enquanto, esses sistemas permanecem ferramentas auxiliares, firmemente sob controle humano. Mas a própria introdução dessa IA significa que a Rússia em breve enfrentará os mesmos dilemas que estão sendo debatidos em Washington.

Isso é necessariamente algo ruim? De forma alguma.

Seria muito pior se essas questões fossem completamente ignoradas. A IA está prestes a transformar os assuntos militares, assim como transformará a vida civil. Fingir o contrário é ingenuidade. A tarefa não é rejeitar o futuro, mas encará-lo com clareza.

A Rússia deve observar atentamente a experiência estrangeira, especialmente a dos Estados Unidos. No melhor cenário, o conflito entre o Pentágono e as Forças Antrópicas força uma reflexão precoce. Isso poderia levar ao estabelecimento de normas, salvaguardas e limites internacionais antes que erros irreversíveis sejam cometidos. No pior cenário, oferece um alerta contundente sobre o que acontece quando o poder tecnológico ultrapassa a moderação moral.

De qualquer forma, a era da "IA assassina" deixou de ser hipotética. Ela está chegando por meio de contratos de aquisição e ultimatos corporativos. E a forma como os países responderem agora moldará não apenas o futuro da guerra, mas o futuro da própria responsabilidade humana.

Este artigo foi publicado originalmente pelo jornal online  Gazeta.ru  e foi traduzido e editado pela equipe da RT.


"A leitura ilumina o espírito".
Apoiar/Support: Chave 61993185299

Comentários