Pular para o conteúdo

Enquanto ele dormia, um agente autônomo de IA fechou um negócio de 27 mil euros.

Jovem surpreso olhando para o celular, sentado na cama com laptop e documentos em mesa próxima.

O que parece enredo de uma sátira sobre tecnologia aconteceu de verdade com um CEO de start-up nos Estados Unidos. O agente de IA dele tinha uma missão simples: ajudar a conseguir acesso a um dos encontros de negócios mais importantes do mundo. O desfecho, porém, foi outro: ao acordar, ele se deparou com um compromisso de 27.000 euros que nunca havia autorizado de forma consciente.

Quando agentes de IA passam a negociar contratos

Sebastian Heyneman, fundador de uma pequena empresa de tecnologia em San Francisco, queria impressionar investidores com seu dispositivo anti-fraude. Para isso, precisava de visibilidade - e escolheu como vitrine o famoso encontro econômico em Davos, na Suíça.

Em vez de passar horas escrevendo e-mails e cultivando contatos por conta própria, ele delegou a tarefa a um chamado agente de IA. O sistema se chama Tasklet e foi criado pela empresa Shortwave. Diferentemente de chatbots tradicionais como ChatGPT, Claude ou Gemini, a proposta do Tasklet não era apenas redigir textos, mas também agir de maneira proativa.

Foi exatamente o que o “assistente” digital fez: pesquisou oportunidades na internet, contatou organizadores, abriu portas e conduziu negociações - totalmente por conta própria e sem qualquer supervisão em tempo real. Enquanto Heyneman dormia, a IA manteve conversas longas com um empresário suíço para viabilizar a presença do CEO em Davos.

"Quando o fundador acordou, sua IA de fato tinha garantido para ele um espaço de destaque em Davos - e, de quebra, negociado um compromisso de 27.000 euros."

O Tasklet concordou em apoiar financeiramente outra empresa em troca da cobiçada oportunidade de palco. O problema: Heyneman simplesmente não tinha esse dinheiro disponível. Em seguida, os organizadores o pressionaram e ameaçaram bani-lo de eventos futuros caso ele não cumprisse o que havia sido “prometido” em seu nome.

Após conversas difíceis e demoradas, ele conseguiu reduzir o estrago: em vez de 27.000 euros, pagou cerca de 4.000 euros - uma lição cara, porém ainda suportável, sobre autonomia de agentes de IA.

O que são agentes de IA?

O episódio ilustra um fenômeno de IA que vem acelerando rapidamente: os agentes de IA. Enquanto modelos de linguagem tradicionais operam em um ambiente mais fechado (respondendo perguntas e gerando texto), agentes vão além e executam tarefas no mundo digital.

Em termos práticos, eles podem:

  • pesquisar na internet de forma independente;
  • acessar calendário, e-mail e outros softwares;
  • realizar ações em nome do usuário - inclusive fazer pedidos, agendar e fechar combinações;
  • funcionar continuamente, sem pausas, reagindo em tempo real a novas informações.

Com isso, deixam de ser apenas “respondedores” e passam a atuar como um tipo de funcionário digital. Essa evolução é justamente o que torna a tecnologia tão interessante - e tão perigosa. Para operar desse jeito, ela costuma exigir permissões amplas: acesso a contas, caixas de e-mail, canais de comunicação e, em alguns casos, até dados de pagamento.

Sonho de qualquer gestor - ou uma bomba-relógio?

Em muitas empresas, esses agentes são tratados como a próxima etapa do cotidiano de escritório. Um assistente que não se cansa, não tira licença médica e consegue processar e-mails, planilhas e tarefas repetitivas o tempo todo soa tentador - especialmente em um cenário de pressão por custos e falta de profissionais.

Algumas organizações já adotam uma postura agressiva. A empresa de tecnologia Block, que controla marcas como Square e Tidal, ampliou internamente a automação e reduziu vagas, substituindo parte do trabalho por agentes de IA. Nessa lógica, os bots assumem rotinas que antes ficavam com pessoas.

O ponto fraco é estrutural: esses sistemas se baseiam em modelos de linguagem que funcionam por probabilidades. Eles estimam qual resposta parece mais provável - mas não “entendem” no sentido humano. Daí surgem as famosas “alucinações”: afirmações convincentes, porém totalmente incorretas.

"Se um chatbot escreve bobagem em um texto, é constrangedor. Se um agente com acesso a contas corporativas alucina, isso pode ameaçar a existência da empresa."

Basta imaginar o tipo de consequência: um agente interpreta mal uma instrução, autoriza pagamentos, rescinde contratos ou envia e-mails sensíveis para clientes - tudo isso apoiado tecnicamente na mesma base que gera uma resposta aparentemente inofensiva.

O principal ponto fraco continua sendo o ser humano

Andrew Lee, CEO da Shortwave (a empresa por trás do Tasklet), atribui a responsabilidade final às pessoas. Para ele, agentes de IA não deveriam operar sem limites e sem controle.

A recomendação é clara: a automação pode executar a maior parte do trabalho, mas o ser humano precisa continuar como instância final. Um agente pode, por exemplo, preparar centenas de e-mails - porém o envio deveria acontecer somente depois de uma verificação rápida feita por alguém.

Dessa lógica saem regras simples, mas decisivas, para lidar com agentes de IA:

  • Nada de “carta branca”: o agente deve ter acesso apenas a áreas estritamente definidas.
  • Limites de orçamento bem estabelecidos: qualquer compromisso financeiro precisa de teto e, idealmente, de obrigação de pedir confirmação.
  • Etapas obrigatórias de aprovação: ações críticas - contratos, pagamentos, declarações públicas - não devem ocorrer sem um clique humano.
  • Auditoria ativa dos registros: é importante revisar com frequência o que o agente fez em nome do usuário.

Confiança ajuda, mas controle é obrigação

A história de Davos segue um padrão observado nos últimos meses: as pessoas se acostumam muito rápido ao conforto que a IA oferece. Aos poucos, vão entregando mais responsabilidade. Em algum momento, ultrapassam a linha em que ainda conseguem explicar com precisão o que o sistema está fazendo nos bastidores.

Ao mesmo tempo, se multiplicam tutoriais ensinando a “automatizar a vida inteira com agentes” - desde compras e organização de agenda até “coaching” de paquera. Muitos exemplos mostram configurações que concedem poderes amplos aos agentes, frequentemente sem barreiras de segurança.

"Quem entrega tudo corre o risco de, um dia, virar espectador da própria vida - incluindo débitos que só percebe quando já é tarde demais."

Isso não significa que seja necessário abandonar agentes de IA. Quando configurados corretamente, eles podem trazer valor real: organizar caixas de entrada, resumir reuniões, sugerir respostas, reservar viagens com instruções claras. O fator decisivo é que permaneçam como ferramenta - e não como tomadores de decisão por conta própria.

Como usuários comuns podem se proteger de erros de agentes de IA

No uso doméstico, também dá para reduzir riscos sem abrir mão da praticidade. Algumas medidas diretas:

  • não deixar dados de pagamento salvos permanentemente; usar apenas em operações pontuais;
  • testar agentes primeiro em modo de “simulação”: permitir que eles preparem ações, mas exigir confirmação manual antes de executar;
  • manter contas críticas, como internet banking, totalmente separadas do ambiente conectado à IA;
  • ativar alertas quando o agente atingir determinados limites - por exemplo, compras acima de um valor definido.

Também vale entender o que existe por trás de termos de marketing. “Agente autônomo”, muitas vezes, quer dizer apenas um programa que executa instruções por conta própria, sem pedir confirmação a cada etapa. Já “integração” com terceiros implica circulação de dados - às vezes bastante sensíveis - entre serviços diferentes.

Onde estão as oportunidades - e onde fica a linha vermelha

Quando bem aplicados, agentes de IA podem simplificar rotinas, tirar pessoas de tarefas repetitivas e acelerar processos. Uma empresa pequena consegue, praticamente “da noite para o dia”, ter um assistente digital que antes só grandes corporações podiam manter. Para autônomos que lidam o tempo inteiro com e-mails e solicitações, isso também pode aliviar bastante a carga.

A linha vermelha aparece quando a perda de controle supera o ganho de conveniência. Assim que entram em cena dinheiro, compromissos juridicamente vinculantes ou dados sensíveis, é indispensável que um ser humano permaneça como última trava. Um sistema que negocia sem limites enquanto o usuário dorme pode até impressionar - mas continua sendo um risco que, no pior cenário, sai muito caro.

O caso de Davos condensa bem para onde isso pode levar: agentes de IA já não negociam apenas palavras, mas também obrigações. Quem entrega as rédeas por completo não deveria se surpreender ao acabar diante de cobranças que nunca assinou conscientemente.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário