Pular para o conteúdo

Stephen Hawking alertou há 10 anos: Estamos ameaçados por um futuro apocalíptico causado pela IA?

Jovem cientista observa holograma 3D da Terra em laboratório com foguete ao fundo.

Há uma década Stephen Hawking soou o alarme - hoje seus alertas sobre IA, clima e riscos nucleares parecem assustadoramente atuais.

Na época, a ideia ainda soava como roteiro de ficção científica: um físico de fama mundial alertando que a humanidade poderia desaparecer em poucos milhares de anos. Dez anos depois, muitas de suas apreensões ficaram visivelmente mais concretas - da aceleração da IA à crise climática e a um cenário geopolítico carregado de tensão nuclear.

A previsão sombria de Stephen Hawking: a humanidade em contagem regressiva

Em 2016, Stephen Hawking falou à tradicional Oxford Union e apresentou um cálculo incômodo: o risco anual de uma catástrofe global pode até ser relativamente baixo, mas, ao longo de séculos e milênios, ele se acumula. No cenário que desenhou, a humanidade poderia ser extinta em 1.000 a 10.000 anos - caso não se espalhasse para além da Terra a tempo.

A solução que ele defendia parecia saída de uma superprodução: colonizar outros planetas, alcançar outras estrelas e transformar a humanidade em uma espécie multiplanetária. Só assim, em sua lógica, os riscos seriam distribuídos por vários lugares e uma única catástrofe não aniquilaria toda a vida da espécie.

Para Hawking, a conclusão era clara: se permanecermos em um único planeta, estaremos jogando roleta russa cósmica - cada geração aperta o gatilho uma vez.

IA, clima, átomo: os riscos que Hawking enxergava

O alerta de Hawking não nascia de profecias místicas, e sim de uma leitura fria dos perigos humanos. Três grandes ameaças ocupavam o centro de sua preocupação: inteligência artificial, crise climática e armas de destruição em massa.

Singularidade da IA: quando as máquinas assumem o controle

Ele foi especialmente direto ao tratar de inteligência artificial. Hawking temia o instante da chamada singularidade: o momento em que sistemas de IA passariam a aprender sozinhos, se aperfeiçoar continuamente e superar os seres humanos em cada vez mais áreas - sem que fôssemos realmente capazes de acompanhar suas decisões.

  • IA como ponto de virada histórico: Hawking via uma IA “completa” como talvez o maior acontecimento da civilização.
  • Dois extremos possíveis: ou um avanço radical, ou um sistema que ganha autonomia e empurra as pessoas para a margem.
  • Problema de controle: quem não definir com precisão os objetivos de uma IA superior pode criar um poder extremamente eficiente, mas hostil às pessoas.

Em 2026, suas palavras soam desconfortavelmente concretas: a IA generativa redige textos, desenvolve código, analisa exames de imagem e opera sistemas de mercado. Estados e empresas disputam uma corrida por modelos cada vez maiores. Ao mesmo tempo, cresce a fome energética dos centros de dados - e, com ela, justamente a pressão ambiental da qual Hawking também alertava.

Crise climática e o “ponto sem volta”

Para Hawking, a mudança climática não era um cenário abstrato de longo prazo, mas um processo avançando em direção a pontos de inflexão. Ele falava em um “ponto sem volta”: a partir de certo nível de aquecimento, oceanos, mantos de gelo e eventos extremos passam a se alterar de forma tão intensa que até respostas duras perdem grande parte da eficácia.

Os números atuais combinam com essa leitura: no fim de 2025, a temperatura média global já estava 1,41 grau acima do patamar pré-industrial. Casas de análise estimam que a marca crítica de 1,5 grau possa ser ultrapassada de forma permanente dentro de poucos anos. Cada décimo de grau adicional aumenta o risco de:

  • ondas de calor extrema mais frequentes
  • secas em larga escala e perdas agrícolas
  • elevação do nível do mar com deslocamentos costeiros
  • reações em cadeia nos ecossistemas, como a morte de florestas

A ironia histórica é que justamente a expansão massiva da IA e da alta tecnologia pode piorar a crise climática, caso os centros de dados operem com energia fóssil e a demanda global por eletricidade continue subindo ano após ano.

Armas nucleares e biológicas: agressividade humana turbinada

Hawking também apontava repetidamente para um problema menos técnico e mais psicológico: a inclinação humana à agressividade e à rivalidade. Num mundo com ogivas nucleares, laboratórios biológicos e armas cibernéticas, basta um erro, um mal-entendido ou uma queda política para causar dano em escala planetária.

Ele falava de um “impulso agressivo herdado”, que a humanidade precisaria controlar antes que a tecnologia o amplificasse. A revogação de acordos de desarmamento, novos programas bélicos e conflitos regionais mostram como esse ponto continua atual.

O Relógio do Juízo Final avança de forma alarmante

Um símbolo dessa soma de riscos é o chamado Relógio do Juízo Final, também conhecido em português como “relógio do fim do mundo” ou “relógio do apocalipse”. Ele foi criado em 1947 por cientistas nucleares, inspirados por nomes como Albert Einstein e Robert Oppenheimer. Quanto mais próximo o ponteiro dos minutos estiver da meia-noite, maior é o perigo de uma catástrofe global segundo esses especialistas.

Em janeiro de 2026, os especialistas colocaram o relógio em 85 segundos para a meia-noite - nunca ele esteve tão perto do colapso simbólico em quase oito décadas. Entre os fatores considerados nessa avaliação estavam:

  • o aumento das tensões entre potências nucleares
  • o possível término de tratados centrais de controle de armas
  • a aceleração da crise climática
  • a corrida por vantagens militares e econômicas em IA

Os ponteiros do Relógio do Juízo Final não funcionam como uma contagem regressiva exata - eles refletem uma percepção global dos cientistas, e ela hoje é tão negativa quanto nunca.

Salvamento no espaço? Por que a ideia espacial de Hawking divide opiniões

Hawking via a exploração espacial como a rota de fuga lógica: se a Terra se torna um endereço único demais para apostar tudo nele, a espécie precisa de endereços de reserva. Colônias em Marte, estações espaciais e, talvez no longo prazo, assentamentos em outros sistemas estelares deveriam reduzir o risco de extinção.

Em 2026, o espaço de fato virou um ponto estratégico geopolítico. A Estação Espacial Internacional se aproxima do fim, enquanto Estados Unidos, China e Rússia planejam:

  • infraestrutura permanente na Lua
  • constelações densas de satélites para comunicação e espionagem
  • centros de dados em órbita para aplicações de IA que consomem muito processamento
  • projetos militares de defesa antimísseis e vigilância

Conceitos como um escudo global de mísseis no espaço alimentam o receio de que o cosmos se transforme no próximo grande palco da corrida armamentista. Com isso, o dilema de segurança apenas sobe de nível: em vez de paz pela tecnologia, surge o risco de uma nova rodada de intimidações nucleares e convencionais - agora entre satélites e bases lunares.

A exploração espacial como solução - ou apenas fuga de vitrine?

É justamente aí que entra a crítica a Hawking. Muitos especialistas perguntam: a visão de emigrar para o espaço não consome quantias gigantescas que fariam falta na própria Terra para transição energética, proteção climática e prevenção de crises? Do ponto de vista técnico, uma colonização ampla de outros planetas ainda está muito distante. Já medidas políticas para cortar emissões, melhorar acordos internacionais e criar mecanismos de segurança são comparativamente mais rápidas de implementar.

Há também uma questão moral: quem abandona a casa em chamas sem apagar o fogo não resolve o problema. Mesmo se cidades em Marte virassem realidade, continuaria a pergunta se a humanidade agiria de forma diferente lá - ou se apenas exportaria seus padrões destrutivos.

O cenário de ficção científica é realmente plausível?

A imagem de Hawking parece saída de Hollywood: uma IA altamente avançada, escaladas políticas, colapso ambiental e pessoas fugindo no último minuto em naves espaciais. Ainda assim, por trás disso não há apenas dramatização, mas um conjunto de tendências que podem se reforçar mutuamente.

Exemplo de efeito cumulativo: se Estados competirem por recursos em um planeta já abalado pelo clima usando sistemas bélicos guiados por IA, a barreira para a escalada cai. Ao mesmo tempo, um clima instável dificulta qualquer cooperação internacional - justamente o que seria necessário para criar regras comuns de segurança para IA e tecnologia nuclear.

Por outro lado, as mesmas tecnologias também geram oportunidades. A IA pode ajudar a operar redes elétricas com mais eficiência, descobrir novos medicamentos, prever melhor eventos extremos e otimizar reatores de fusão. Programas espaciais fornecem dados climáticos precisos e permitem redes globais de comunicação, que por sua vez ampliam o acesso à educação e à pesquisa.

Tecnologia Risco Potencial
IA perda de controle, sistemas de armas autônomos avanços médicos, modelagem climática, ganhos de eficiência
Exploração espacial militarização do espaço, novos focos de conflito monitoramento do clima, internet via satélite, proteção de longo prazo da espécie
Energia nuclear acidentes, proliferação de armas fornecimento de eletricidade com baixas emissões de CO₂, pesquisa sobre energia de fusão

O que Hawking teria dito sobre 2026?

Hawking nunca foi visto como um pessimista crônico. Mesmo com seus alertas, costumava demonstrar confiança de que a humanidade encontraria soluções. Ele acreditava na ciência, na educação e na cooperação internacional - desde que a política e a sociedade levassem os sinais de risco a sério.

Hoje, provavelmente três pontos o preocuparem mais do que tudo:

  • a disseminação acelerada de IA poderosa sem limites globais
  • a execução lenta das metas climáticas apesar de dados cada vez mais claros
  • o retorno da rivalidade entre grandes potências, inclusive no espaço

Ao mesmo tempo, ele provavelmente insistiria que o futuro não é um roteiro fechado, e sim um corredor de possibilidades. O “filme de ficção científica” contra o qual alertava não é um destino inevitável, mas um enredo possível. Quais cenas se tornam reais depende de decisões políticas, do desenho das tecnologias - e do famoso impulso agressivo humano que ele mencionava repetidamente.

Quem hoje discute modelos de IA, projetos espaciais ou novos sistemas de energia está, no fim das contas, retomando a antiga pergunta de Hawking: usaremos nossa inteligência para domar os riscos criados pelas nossas próprias invenções - ou continuaremos apenas apertando o botão de tensão de uma trama que ele já havia esboçado há dez anos?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário