Testes recentes com grandes modelos de linguagem, como o ChatGPT, mostram como a inteligência artificial pode, em situações de crise, inclinar-se com facilidade para a escalada em vez da desescalada. O que parecia ficção científica passou a preocupar estrategistas militares e especialistas em segurança, porque essa tecnologia está ficando cada vez mais próxima de centros de comando e até de arsenais nucleares.
Quando algoritmos passam a “raciocinar” sobre guerra e paz
A pesquisadora Jacquelyn Schneider, da Universidade Stanford, coordena um projeto que reproduz crises militares em simulações. O trabalho se concentra em cenários extremamente sensíveis: confrontos entre Rússia e Ucrânia, tensões entre China e Taiwan e episódios de escalada entre potências nucleares. Dentro dessas crises artificiais, a equipe colocou modelos de linguagem atuais para “atuar” - incluindo ChatGPT, Claude e Llama.
O resultado foi claro: os sistemas quase não demonstraram inclinação para a diplomacia. Em vez de priorizar compromissos, eles tendem a adotar ameaças mais duras, respostas militares e um agravamento acelerado do conflito.
"Os modelos de IA reforçam, em muitos cenários, a espiral de violência - chegando até o uso de armas nucleares."
Em um texto publicado na revista de política Politico, Schneider relatou que a IA frequentemente se comporta como o notório general norte-americano Curtis LeMay. Durante a Guerra Fria, LeMay ficou conhecido como um dos defensores mais enfáticos de um ataque nuclear preventivo contra a União Soviética - uma visão hoje considerada perigosíssima.
Nas simulações, os modelos voltavam repetidamente a alternativas que incluíam ação militar aberta ou até ataques nucleares, mesmo quando havia caminhos possíveis com negociações e desescalada. É justamente isso que alarma os pesquisadores.
Por que a IA parece “programada” para escalar conflitos (ChatGPT e modelos de linguagem)
A explicação não está em uma suposta "maldade" dos sistemas, e sim no tipo de material usado para treiná-los. Modelos de linguagem aprendem a partir de volumes gigantescos de textos: notícias, livros, fóruns, análises históricas, documentos de estratégia. E a história humana é farta em guerras, retaliação e lógica de ameaça - enquanto a diplomacia bem-sucedida costuma receber menos destaque e menos narrativa dramática.
- Guerras, batalhas e ameaças nucleares aparecem em excesso nas fontes históricas.
- Soluções diplomáticas, no conjunto de dados, muitas vezes soam sem graça ou secundárias.
- “Dureza” militar é frequentemente retratada em textos como algo positivo, associado a determinação.
- Erros de cálculo e mal-entendidos em crises costumam surgir só na retrospectiva - não como alerta preventivo.
Assim, quando o modelo usa esse repertório para avaliar o que parece "lógico" ou "consistente", ameaças e contra-ataques acabam subindo rápido na lista, acima de conversas cautelosas. Na disputa por “imposição” de força, escolher a arma mais potente pode parecer, para a máquina, um passo plausível.
Há ainda um segundo ponto: modelos de linguagem são excelentes em soar convincentes, não em entregar decisões garantidamente corretas. Eles podem redigir estratégias militares com enorme segurança, sem de fato “compreender” o que significariam milhões de mortes ou um planeta contaminado por radiação.
Uso militar: o ser humano deve permanecer na cadeia de comando
Oficialmente, militares dos Estados Unidos reforçam que a IA não deve ter autoridade final sobre vida e morte. O Pentágono afirma que sempre haverá um humano com a responsabilidade final - especialmente em tudo o que envolve armas nucleares. A IA pode orientar, analisar e identificar padrões, mas não deveria selecionar alvos por conta própria nem autorizar ataques.
Ao mesmo tempo, a influência dessa tecnologia cresce rapidamente. Em forças armadas modernas, a IA já é utilizada para:
- análise de imagens de satélite e registros de drones
- defesa cibernética e detecção de ataques em redes
- interpretação de tráfego de rádio e propaganda
- simulação de estratégias do adversário
- logística e movimentação de tropas
Quanto mais esses sistemas passam a organizar processos inteiros, maior fica a dependência. Mesmo que o “último clique” continue com uma pessoa, a decisão pode se apoiar em previsões, avaliações de risco e recomendações produzidas por IA. É aí que pesquisadores como Schneider enxergam a zona de maior perigo.
"Se generais confiarem cegamente em modelos, suposições erradas podem virar ordens fatais em segundos."
China, Rússia e a corrida pela força armada “inteligente”
Os Estados Unidos não enfrentam esse dilema sozinhos. China e Rússia também investem pesado em IA para fins militares. Drones autônomos, sistemas de vigilância, reconhecimento de alvos - tudo isso é tratado como peça central da “guerra do futuro”.
Isso reativa um temor familiar em Washington: ficar para trás em tecnologia. Quem hesita por preocupações de segurança pode aceitar desvantagens militares; quem acelera sem limites assume riscos imprevisíveis para o planeta.
O resultado é uma corrida que a especialista de Stanford destaca em seus alertas: mesmo que alguns países prometam não deixar a IA interferir em decisões nucleares, a pressão competitiva pode corroer essas promessas.
Até onde a IA pode chegar do “botão vermelho”?
Na prática, o debate passa por centros de comando em que, no pior cenário, decisões sobre retaliação precisam ser tomadas em minutos. Nesses ambientes, pessoas sob estresse extremo avaliam enxurradas de dados de radar, satélites e sistemas de alerta antecipado. A IA surge quase como uma solução óbvia para pré-organizar essas informações.
Se, nesse processo, os sistemas começarem a disparar alertas, elevar níveis de ameaça ou sugerir cursos de ação, cria-se uma dinâmica arriscada: em plena escalada, poucos se sentem confortáveis para desafiar abertamente a “lógica fria” de uma máquina - ainda mais quando o outro lado pode estar tomando decisões também apoiadas por IA.
Mesmo na Guerra Fria, houve episódios em que ataques nucleares quase ocorreram porque sensores geraram falsos alarmes, e pessoas em centrais de controle tiveram dúvidas no último instante. Se situações assim forem “cobertas” por avaliações apoiadas por IA, esse tipo de hesitação humana decisiva pode se tornar menos comum.
O que precisaria ser regulado - e o que é realmente viável
Por isso, muitos especialistas defendem novas salvaguardas antes que a IA se infiltre ainda mais em sistemas militares. Entre as propostas em discussão estão:
- proibições internacionais claras a armas totalmente autônomas
- regras de transparência sobre qual papel a IA desempenha em centros de comando
- protocolos que exijam autorizações humanas em múltiplas etapas para decisões críticas
- exercícios de crise conjuntos em que países prevejam falhas e mau funcionamento de IA
Ao mesmo tempo, permanece a dúvida sobre como fiscalizar regras desse tipo. Projetos militares de IA costumam ser sigilosos. E cada lado tende a suspeitar que o outro esteja se concedendo mais liberdade do que admite publicamente.
O que realmente significa falar em “IA no militar”
A expressão “inteligência artificial” soa abrangente, mas, no mundo real, cobre um conjunto de ferramentas com riscos bem diferentes. Um sistema que calcula automaticamente ciclos de manutenção de tanques não tem nada a ver com um algoritmo que prioriza alvos para mísseis de cruzeiro.
Modelos de linguagem como o ChatGPT são treinados principalmente para gerar texto - não para controlar mísseis. Ainda assim, podem funcionar como consultores em jogos de guerra simulados, como “adversários” em wargames ou como redatores de relatórios de situação que influenciam o humor e as decisões dentro de um Estado-Maior.
Esses efeitos indiretos são os mais difíceis de medir: se alguns relatórios gerados por IA, por soarem muito convincentes, reforçarem a impressão de que um inimigo está prestes a atacar, a barreira psicológica para um primeiro golpe pode diminuir. Não porque a máquina ordene diretamente, mas porque ela molda o pensamento de quem decide.
Exemplos práticos: onde os riscos ficam concretos
Alguns cenários hipotéticos descritos por pesquisadores incluem:
- um sistema de IA confundir um ataque cibernético com preparação para um golpe físico e elevar indevidamente o nível de ameaça
- análises de propaganda superestimarem a disposição do adversário para a guerra, levando militares a mobilizar “por prevenção”
- dados de treino falhos fazerem certos países parecerem sistematicamente mais agressivos do que realmente são
- um bug de software provocar a recomendação frequente demais de opções de escalada
Nenhum desses casos exige robôs de ficção científica. Basta que pessoas passem a confiar demais em análises de IA e que, numa emergência, falte tempo para questionar a qualidade dessas avaliações com o rigor necessário.
É por isso que especialistas como Schneider insistem em tratar os limites da tecnologia com franqueza. A IA pode identificar tendências, organizar dados e testar alternativas. Mas não pode carregar a responsabilidade por decisões nucleares - nem mesmo quando, à primeira vista, parece mais “racional” do que um ser humano exausto dentro de uma sala de comando.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário