De um dia para o outro, um único comunicado virou o clima de cabeça para baixo.
Em questão de dias, o principal assistente de IA da OpenAI passou a lidar com uma onda de utilizadores indignados, um dilúvio de avaliações de uma estrela e desinstalações em massa, depois que veio a público a notícia de uma parceria com o Departamento de Defesa dos EUA.
Um fim de semana que mudou o humor em torno do ChatGPT
Durante meses, o aplicativo móvel da OpenAI manteve presença constante nos rankings das lojas, visto por muita gente como uma ferramenta inofensiva para produtividade. Essa perceção começou a ruir no fim de fevereiro de 2026.
A partir de 28 de fevereiro, as desinstalações do app do ChatGPT dispararam. Segundo números reportados na França, as remoções aumentaram cerca de 295% num único fim de semana - um salto quase inédito para um app de consumo já consolidado.
As pessoas não se limitaram a sair em silêncio. As notas despencaram, com um crescimento estimado de 775% nas avaliações negativas, transformando as lojas de aplicativos num espaço de desabafo, frustração e desconfiança.
Até então, as críticas ao ChatGPT costumavam girar em torno de alucinações, vieses ou do preço da assinatura. A nova reação tem outra natureza: mira menos as limitações técnicas do produto e mais as decisões políticas e éticas da OpenAI.
O estopim: acordo com o Departamento de Defesa dos EUA
O ponto de ruptura foi o anúncio de uma parceria entre a OpenAI e o Departamento de Defesa dos EUA, ainda referido em muitos meios estrangeiros pelo nome histórico “Departamento de Guerra”.
A OpenAI descreveu o acordo como uma forma de apoiar casos de uso ligados à “defesa e segurança nacional”. A escolha de palavras acendeu alertas imediatos em utilizadores que temem a aplicação de IA em guerra, vigilância ou tomada de decisão automatizada em zonas de conflito.
Nas redes sociais, fãs de longa data do ChatGPT relataram sensação de traição. Muitos disseram não ter objeções ao uso de IA para educação, escrita ou programação, mas estabeleceram uma linha vermelha diante de qualquer associação com sistemas de armas ou inteligência militar.
Para uma parcela relevante do público, a parceria quebrou a ideia de que o ChatGPT era uma ferramenta neutra e civil, sustentada por intenções puramente benéficas.
A controvérsia também se somou ao ceticismo já existente em torno de Sam Altman, diretor-executivo da OpenAI, cuja liderança vem sendo questionada repetidamente desde a dramática disputa no conselho no fim de 2023. Para críticos, o acordo com a defesa reforça a impressão de que ambições comerciais e estratégicas passaram a prevalecer sobre o discurso original de “segurança em primeiro lugar”.
Avaliações negativas: do que as pessoas realmente reclamam
Do travamento do app à ética e à confiança no ChatGPT
Antes deste episódio, comentários desfavoráveis sobre o app móvel do ChatGPT citavam com frequência a limitação do plano gratuito, problemas de login ou o acesso ao GPT-4 preso a uma assinatura. Essas queixas continuam a aparecer, mas deixaram de ser o centro da conversa.
Nos últimos dias, as reclamações mudaram de foco e passaram a incluir:
- Revolta com a “militarização” percebida de uma ferramenta de IA civil
- Cobrança por transparência mais clara sobre parcerias com governos
- Medo de partilha de dados com órgãos de defesa ou agências de inteligência
- Apelos de boicote ao aplicativo até existirem garantias éticas
Alguns avaliadores dizem explicitamente que acham a tecnologia impressionante, porém não pretendem mais sustentá-la financeiramente - nem mantê-la no telemóvel - enquanto esse tipo de acordo permanecer em vigor.
Crise de confiança, não apenas um problema de experiência do utilizador
O aumento aproximado de 775% nas notas baixas indica que não se trata de irritação passageira. Muitas pessoas estão a reavaliar se os objetivos da empresa ainda combinam com os próprios valores.
Em geral, apps sofrem quedas de avaliação depois de falhas, mudanças de design ou reajustes de preço. Aqui, o gatilho foi um anúncio corporativo. Isso é relevante porque corrigir interface ou acrescentar funções não resolve, por si só, uma rutura moral.
Sam Altman novamente sob escrutínio
Sam Altman há muito divide opiniões no setor de tecnologia. Para uns, é um visionário que levou a IA ao quotidiano; para outros, é alguém que confunde as fronteiras entre pesquisa em segurança e expansão comercial agressiva.
A parceria com o Departamento de Defesa reacendeu esse debate. O lado crítico argumenta que a OpenAI se afastou da missão original sem fins lucrativos e passou a agir como um contratado tradicional, competindo por acordos estatais - especialmente em áreas estratégicas como defesa.
Já os apoiadores respondem que trabalhos ligados à segurança nacional podem envolver usos não letais: cibersegurança, logística, simulação e planeamento de resposta a desastres. Na visão deles, recusar qualquer interação com órgãos de defesa impediria a IA de atuar em frentes onde poderia evitar danos ou estabilizar crises.
| Preocupação | Argumento a favor do acordo | Argumento crítico |
|---|---|---|
| Uso em guerra | Foco apenas em ferramentas defensivas | Ferramentas podem migrar para fins ofensivos |
| Privacidade de dados | Contratos podem prever salvaguardas rígidas | O risco de acesso governamental continua elevado |
| Confiança do público | Parcerias de segurança nacional são comuns | Enfraquece a imagem civil e “amigável” da IA |
Concorrentes veem uma oportunidade
As dificuldades do ChatGPT tendem, inevitavelmente, a abrir espaço para rivais. O assistente Claude, da Anthropic, por exemplo, enfatizou publicamente que não assinou acordo com o Departamento de Defesa dos EUA.
A empresa também mencionou discordâncias sobre como a IA pode ser usada para vigilância e armas autónomas, procurando posicionar-se como mais cautelosa diante de aplicações militares.
Ao manter distância de contratos de defesa, o Claude oferece uma alternativa para quem quer IA avançada sem ligação ao setor de armamentos.
Outros participantes - de projetos de código aberto a startups menores - também se movimentam para destacar cartas de princípios e compromissos éticos. Alguns ressaltam estruturas de governança mais transparentes, limites ao poder de acionistas ou proibições explícitas de uso militar ofensivo.
O que isso muda para quem usa no dia a dia
Para a maioria das pessoas, a experiência na tela permanece igual: o ChatGPT continua a redigir e-mails, criar planos de aula e rascunhar código. Os algoritmos por trás das conversas não se transformaram subitamente em armas.
A disputa está muito mais ligada à governança e ao rumo do produto. No fundo, muitos utilizadores estão a perguntar: se eu dependo desta ferramenta todos os dias, quem define o futuro dela? E onde essa liderança traça limites morais?
Alguns optam por continuar a usar o ChatGPT, mas pressionando a OpenAI a divulgar mais detalhes sobre a parceria, incluindo:
- Limites objetivos para tipos de uso militar
- Auditorias independentes das práticas de segurança
- Relatórios públicos sobre contratos com governos
Outros preferem desinstalar o app e migrar para alternativas que anunciam posições mais rígidas sobre trabalhos de defesa - ou para modelos locais, executados no próprio dispositivo.
Um ângulo importante no Brasil: privacidade, LGPD e expectativas de transparência
No contexto brasileiro, a discussão tende a ganhar contornos adicionais por causa da LGPD (Lei Geral de Proteção de Dados) e da sensibilidade em torno de como dados pessoais podem ser processados, armazenados e eventualmente compartilhados. Mesmo quando um acordo é firmado noutro país, utilizadores no Brasil costumam exigir clareza sobre bases legais, retenção de dados e finalidade do tratamento.
Também pesa a questão reputacional: para muitas pessoas, “segurança nacional” é um termo amplo demais. Quanto menos específico for o enquadramento e quanto mais opacos forem os detalhes operacionais, maior a tendência de o público presumir o pior - sobretudo quando o tema envolve defesa, vigilância e poder estatal.
Entendendo riscos e compensações
Quando empresas de IA trabalham com instituições de defesa, os riscos somam camadas. Tecnologias de uso dual podem servir tanto a fins pacíficos quanto violentos. Um sistema treinado para analisar imagens de satélite para coordenar ajuda humanitária pode, com a mesma base técnica, contribuir para sistemas de seleção de alvos.
Há ainda o risco de “expansão de finalidade”: um modelo inicialmente usado para tradução ou logística pode mais tarde ser ajustado para simulações de campo de batalha. Mesmo que um contrato comece com restrições, pressões políticas ou situações de emergência podem enfraquecer essas barreiras.
Por outro lado, recusar toda colaboração também tem custos. Estados vão buscar capacidades aprimoradas por IA de qualquer maneira. Se atores mais preocupados com segurança e governança se afastarem totalmente, concorrentes menos criteriosos podem ocupar o espaço e moldar IA militar com menos freios éticos.
Como reagir de forma prática
Quem ficou incomodado com a notícia tem alternativas concretas para além de deixar uma avaliação de uma estrela.
- Comparar políticas de privacidade e declarações éticas de diferentes ferramentas de IA
- Preferir o uso via navegador em vez do aplicativo e reduzir a partilha de dados quando possível
- Testar modelos menores ou de código aberto para tarefas sensíveis
- Cobrar dos fornecedores políticas explícitas sobre uso militar
- Apoiar grupos de pesquisa e organizações da sociedade civil que monitoram o uso de IA em guerra
Outra estratégia é separar atividades. Parte dos utilizadores passou a manter um assistente “generalista” para conteúdos inofensivos e a recorrer a ferramentas locais, offline, quando o tema envolve dados pessoais, médicos ou políticos. Ao dividir o uso, diminui-se a exposição caso as parcerias de um fornecedor mudem de rumo novamente.
Para muita gente, o pico de avaliações negativas e desinstalações não representa necessariamente um rompimento definitivo, e sim um aviso claro. Ele sinaliza que o público acompanha atentamente para onde a IA generativa está a ir - e que limites éticos traçados pelos utilizadores podem gerar reação rápida e mensurável quando parecem ter sido ultrapassados.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário