Nos Estados Unidos, uma nova leva de ferramentas de IA está chegando às universidades. Enquanto muitos estudantes usam chatbots para obter respostas prontas para tarefas, um sistema recente segue o caminho oposto: ele recusa qualquer solução direta e obriga o aluno a pensar por conta própria, passo a passo.
Como um chatbot socrático de IA da University of Wisconsin–La Crosse funciona como treinadora-chefe
A equipe de pesquisa da University of Wisconsin–La Crosse criou um chatbot específico inspirado em um filósofo da Antiguidade. Em vez de vídeos explicativos ou gabaritos, o sistema aposta em uma sequência de perguntas baseada na chamada método socrático - uma espécie de “parteira” para os pensamentos.
Um exemplo típico: se um estudante pergunta como calcular a taxa de crescimento do produto interno bruto, a IA não devolve a fórmula. Ela começa com perguntas aparentemente simples:
- O que o produto interno bruto realmente mede?
- Quais grandezas você está comparando quando fala em crescimento?
- Em que período você está observando a mudança?
Resposta após resposta, o chatbot vai aproximando o estudante da solução sem antecipar, em nenhum momento, o passo final.
O núcleo do sistema: nada de conhecimento mastigado, mas questionamento constante até a ficha cair por conta própria.
O sistema foi treinado com transcrições completas das aulas de macroeconomia da universidade. A IA só pode usar esse material e não tem acesso à internet. Com isso, o conteúdo permanece fortemente ligado ao currículo oficial, sem fontes aleatórias nem informação superficial da rede.
O que acontece quando a IA não pode entregar respostas
Os pesquisadores quiseram entender como esse tipo de apoio “irritante” afeta o desempenho em provas. Na primavera de 2025, eles dividiram 140 estudantes de uma disciplina de macroeconomia em quatro grupos:
| Grupo | Forma de trabalho |
|---|---|
| 1 | Sozinho, com o chatbot de perguntas |
| 2 | Apenas trabalho em grupo tradicional, sem IA |
| 3 | Primeiro com o chatbot, depois discussão em grupo |
| 4 | Grupo de controle, sem apoio especial |
A análise, publicada em um documento de trabalho no SSRN, mostra diferenças claras. O ponto mais interessante é que o modo como os estudantes usam a IA faz toda a diferença - não apenas o fato de usá-la.
Quem questiona e raciocina ativamente ganha muito terreno. Quem aceita ser “alimentado” pela IA de forma passiva fica para trás.
Usuários ativos avançam; usuários passivos despencam
O melhor resultado veio do grupo misto, que primeiro trabalhou com a IA e depois continuou a discussão em equipes. No terceiro teste, o desempenho médio desse grupo ficou 12 pontos acima do grupo de controle. Em um único semestre, é um salto relevante.
A situação foi bem diferente entre os estudantes que se apoiaram demais em respostas convenientes da IA e passaram a encará-la como geradora de soluções. Quando essa muleta foi retirada em uma avaliação posterior, o desempenho deles caiu, em média, 8 pontos.
Os pesquisadores falam em uma “muleta cognitiva”: quem se acostuma a resolver toda tarefa com um clique quase não treina a própria capacidade de resolver problemas. Se o apoio desaparece de repente, a deficiência aparece sem piedade.
Erros como ponto de partida para novas perguntas na IA
Um detalhe interessante do sistema é a forma como ele lida com erros. O chatbot não corrige respostas erradas de maneira frontal; em vez disso, usa o erro como ponto de partida para a próxima rodada de perguntas.
Se um estudante confunde, por exemplo, PIB real e PIB nominal, não há uma “resposta de caneta vermelha”. A IA inicia outra sequência:
- O que um índice de preços descreve?
- Como esse índice muda ao longo do tempo?
- Qual é o papel do nível de preços nas comparações de crescimento?
Algo semelhante acontece em temas mais complexos, como inflação. Se uma resposta mostra que a relação entre oferta de moeda, velocidade de circulação e nível de preços não ficou clara, surgem três ou quatro perguntas bem direcionadas. A meta é que o próprio estudante perceba em qual peça do raciocínio algo não está encaixando.
A IA não acende uma luz verde ou vermelha - ela coloca o espelho na frente e obriga à autocorreção.
O que a combinação com trabalho em grupo acrescenta
O modelo mais eficaz foi justamente aquele em que a IA era apenas o primeiro passo. Os estudantes começavam sozinhos com o chatbot e precisavam avançar individualmente por meio das perguntas. Depois, se reuniam em pequenos grupos para expor suas linhas de raciocínio.
Essa combinação gerou vários efeitos de aprendizagem:
- Cada estudante chegava ao grupo com um caminho próprio de solução.
- As contradições apareciam rapidamente e eram debatidas.
- Termos técnicos e fórmulas se fixavam melhor, porque precisavam ser explicados com palavras do próprio aluno.
- Estudantes mais tímidos ganhavam confiança com a preparação feita pela IA e ficavam mais à vontade para contribuir.
Os pesquisadores citam trabalhos de Harvard que já haviam mostrado que perguntas guiadas fixam o conhecimento no longo prazo melhor do que simplesmente despejar informação. O novo estudo vai além e mostra o quanto esse efeito cresce quando entra uma dimensão social.
Por que esta IA funciona de modo tão diferente de ChatGPT e companhia
Modelos de linguagem como ChatGPT normalmente respondem de forma direta. É justamente isso que os torna atraentes - e, ao mesmo tempo, problemáticos no contexto educacional. Muitos estudantes usam essas ferramentas para obter redações prontas, passos de cálculo ou até soluções completas de programação, sem realmente processar o conteúdo.
O novo sistema inverte essa lógica. Suas principais características são:
- Nada de soluções prontas, apenas perguntas de retorno
- Limitação ao conteúdo da própria disciplina
- Os erros não são “apagados”, mas aproveitados de forma produtiva
- O objetivo é compreensão, não velocidade
Para as instituições de ensino superior, isso abre uma possibilidade: incorporar IA às disciplinas sem o receio de que as tarefas se transformem em simples exercícios de copiar e colar. Em vez disso, as ferramentas passam a funcionar como parceiras de treino para o raciocínio estruturado.
Oportunidades e riscos para o cotidiano universitário
É claro que tudo isso exige equilíbrio. Se o chatbot for rígido demais e frustrante, os estudantes perdem o interesse rapidamente. Se for brando demais e acabar entregando meia resposta, o sistema volta a se comportar como uma máquina de respostas.
Ainda assim, o estudo mostra que, com algumas regras claras, há muito a ganhar:
- A IA nunca deve ser a única instância; ela precisa andar junto com aulas presenciais e troca entre pessoas.
- Os docentes precisam deixar claro como ela pode ser usada - o que é permitido e o que não é?
- As atividades devem ser desenhadas de modo que simplesmente copiar não traga vantagem.
Ao mesmo tempo, surge a questão da equidade: se parte dos estudantes usa sistemas estritamente baseados em perguntas e outros têm acesso livre a chatbots mais poderosos, rapidamente aparecem condições desiguais. Por isso, algumas universidades discutem disponibilizar tutores de IA de forma centralizada e limitar mais fortemente os bots de resposta aberta durante períodos de avaliação.
Como levar a ideia para outras disciplinas
A macroeconomia é um campo bastante adequado para esse tipo de encadeamento de perguntas, porque conceitos como inflação, crescimento ou produtividade se apoiam logicamente uns nos outros. Mas o princípio pode ser aplicado de maneira bem mais ampla:
- Matemática: dedução passo a passo de demonstrações em vez de caminhos prontos.
- Informática: perguntas sobre estruturas de dados e algoritmos antes de gerar o código.
- Direito: verificação de quais elementos legais estão presentes antes de indicar um resultado.
- Medicina: perguntas sobre sintomas e diagnósticos diferenciais, sem oferecer um diagnóstico imediatamente.
O desafio será ver com que rapidez os professores conseguem montar seus próprios conjuntos de perguntas. Quanto mais simples for inserir e controlar os materiais das aulas nesses sistemas, mais realista se torna um uso amplo - inclusive em universidades brasileiras.
No fim das contas, fica uma conclusão simples, mas incômoda: a IA não substitui o pensamento; no máximo, ela o provoca. A questão já não é se os estudantes vão usar auxiliares digitais, mas para quê - como máquina de respostas ou como sparring insistente para a própria mente.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário