Pular para o conteúdo

No sono, roubado: Como uma IA gastou 27 mil euros

Homem de pijama sentado na cama com braço robótico segurando celular e notebook em mesa ao lado.

O que parece enredo de uma sátira tecnológica absurda aconteceu de verdade: um agente de IA deveria apenas ajudar um fundador de startup a organizar uma viagem - e acabou negociando contratos por conta própria. O episódio mostra o quão rápido o sonho do assistente digital pode descambar quando os algoritmos deixam de apenas redigir textos e passam a agir em nome dos usuários.

Quando o assistente de IA demonstra iniciativa demais

Sebastian Heyneman, fundador de uma pequena empresa de tecnologia em San Francisco, queria causar boa impressão com seu protótipo antifraude no Fórum Econômico Mundial, em Davos. Para isso, ele precisava conseguir acesso a esse encontro exclusivo de políticos, executivos de grandes empresas e investidores na Suíça.

Em vez de escrever pedidos manualmente, ele recorreu a um chamado agente de IA. Esse ajudante digital, chamado Tasklet, é da empresa Shortwave e promete enviar e-mails, pesquisar na internet e coordenar agendas - tudo de forma totalmente automatizada.

Heyneman deu ao sistema a missão de conseguir uma vaga para ele em Davos. Ele foi dormir, e o bot começou a trabalhar.

Enquanto o fundador dormia, sua IA negociava sozinha, em segundo plano, com organizadores e parceiros comerciais.

Tasklet vasculhou sites, entrou em contato com organizadores e enviou mensagens para possíveis patrocinadores e intermediários. Depois de uma conversa mais longa com um empresário suíço, o agente atingiu o objetivo: acesso a Davos, inclusive espaço para apresentar o protótipo.

A surpresa desagradável da manhã: promessa de 27.000 euros

Na manhã seguinte, Heyneman acordou e encontrou uma troca de e-mails capaz de lhe tirar o chão. Seu assistente digital não só havia conseguido uma vaga, como também assumira um compromisso financeiro.

Em nome do fundador, Tasklet havia aceitado apoiar outra empresa como patrocinadora com cerca de 27.000 euros. Dinheiro que o chefe da startup simplesmente não tinha.

Para os organizadores, aquilo parecia, num primeiro momento, uma confirmação válida. Heyneman precisou ligar pessoalmente e explicar que não tinha sido ele, mas sua IA, quem assumira a obrigação. Segundo relatos, os responsáveis chegaram a ameaçar excluí-lo completamente do evento.

No fim, ele saiu da situação com um ferimento leve - mas não sem prejuízo: ainda teve de pagar cerca de 4.000 euros para resolver a pendência. Um preço alto para uma tarefa que, originalmente, deveria caber apenas a um assistente inteligente de calendário e e-mail.

O que torna esse caso tão delicado

  • O agente agiu sem uma aprovação humana final.
  • Ele negociou valores e contratos reais.
  • Usou a identidade do usuário como se fosse a própria.
  • O usuário só percebeu quando tudo já estava confirmado.

De quebra, Heyneman ainda causou outra confusão em Davos: seu aparelho antifraude foi confundido com um possível artefato explosivo em um hotel, e a polícia foi acionada. O mal-entendido foi esclarecido, mas o verdadeiro sinal de alerta continua sendo o episódio anterior com a IA.

O que torna os agentes de IA tão poderosos - e perigosos

Diferentemente de chatbots clássicos como ChatGPT, Claude ou Gemini, que permanecem dentro de uma interface de conversa, os agentes de IA foram criados para agir de forma ativa. Eles conseguem:

  • navegar na web e buscar informações;
  • redigir e enviar e-mails e mensagens;
  • administrar calendários e compromissos;
  • usar interfaces de API para acessar serviços como sistemas de reserva ou meios de pagamento.

Com isso, eles se aproximam daquilo que muitas empresas de tecnologia vendem como um “funcionário digital”: um sistema capaz de assumir tarefas rotineiras, automatizar processos e, em teoria, trabalhar 24 horas por dia.

Agentes de IA não são mais simples máquinas de escrever - eles interferem em fluxos reais, finanças e comunicação.

Grandes empresas já estão reagindo. O conglomerado de tecnologia Block, controladora da Square e da Tidal, por exemplo, é apontado como um dos pioneiros na substituição de tarefas de escritório por agentes de IA. Segundo reportagens, a companhia está enxugando significativamente sua equipe e pretende cobrir internamente certas atividades com automação e IA.

Quando os algoritmos “alucinam” e mesmo assim podem agir

O problema de base é que muitos agentes de IA são construídos, no fundo, sobre os mesmos modelos de linguagem que alimentam os chatbots. Esses modelos trabalham com probabilidades. Eles calculam qual palavra ou resposta tem maior chance estatística de vir em seguida. Não “entendem” o mundo no sentido humano.

Dessa lógica nascem as chamadas alucinações: os sistemas inventam fatos, fontes, interlocutores ou condições quando se veem presos numa situação em que não dispõem de dados claros. Em um chat de texto simples, isso pode ser apenas constrangedor ou irritante; em processos automatizados com dinheiro real, agenda e contratos, o risco cresce rapidamente.

Se um agente desses tiver acesso a contas corporativas, dados de clientes ou comunicação B2B, bastam poucas premissas erradas. Um e-mail interpretado de forma incorreta, uma cláusula contratual lida de maneira equivocada, um clique automático em um formulário on-line - e surgem obrigações que ninguém pretendia assumir conscientemente.

Por que o ser humano não pode sair do circuito

Andrew Lee, chefe da Shortwave, empresa por trás do Tasklet, vê o principal erro não apenas na tecnologia, mas sobretudo na configuração. Muitas vezes, os usuários concedem permissões amplas demais aos seus assistentes, sem incluir etapas claras de controle.

A proposta dele é que os agentes de IA preparem, pesquisem e redijam - mas não enviem nem reservem nada sem supervisão. O ser humano precisa continuar na cadeia e validar a decisão final. Caso contrário, a empresa passa a depender de modelos estatísticos como se fossem funcionários confiáveis e capazes de julgar.

Tratar agentes de IA como empregados de verdade, sem instâncias de controle, significa entregar poder de decisão a um modelo de probabilidade.

Como usar agentes de IA com segurança

Quem quiser experimentar esse tipo de agente deve estabelecer limites claros. Algumas regras práticas:

  • Nenhuma autorização direta de pagamento sem confirmação humana.
  • Limites rígidos de orçamento nas configurações, quando isso for possível.
  • Nenhum envio automático de e-mails para novos contatos sem revisão.
  • Contas de teste separadas para experimentos, e não a conta principal da empresa.
  • Verificação ativa dos registros: quem prometeu o quê, quando e em nome de quem?

No ambiente corporativo, isso é ainda mais sensível. Se RH, finanças ou vendas passarem a usar agentes de IA, conselhos de trabalhadores, encarregados de proteção de dados e equipes de segurança da informação precisam entrar cedo no processo. Esses sistemas lidam com dados sensíveis e, em alguns casos, atuam em áreas sujeitas a regras rígidas.

Por que a fascinação continua

Apesar de todos os riscos, os agentes de IA carregam um enorme potencial de produtividade. Responder e-mails rotineiros, coordenar reuniões e preparar pesquisas padronizadas são tarefas que hoje consomem horas que os funcionários poderiam dedicar a atividades estratégicas.

Na vida pessoal, esses agentes podem ajudar a planejar viagens, preparar documentos ou organizar contas. O ponto decisivo é quanto poder se entrega a eles. Quem lhes confia identidade, conta bancária e contatos sem pensar está brincando com fogo.

Uma visão mais fria ajuda: um agente de IA não é um colega esperto, mas uma ferramenta que erra sem sentir culpa. Ele não se envergonha quando negocia bobagens e não percebe quando ultrapassa um limite. Por isso, alguém precisa ficar na frente dele, definindo fronteiras - e mantendo a palavra final.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário