Pular para o conteúdo

Nova onda de IA nas universidades: o chatbot socrático que não entrega respostas prontas

Quatro jovens estudando juntos em sala, atentos a um laptop com ícones de interrogação flutuando.

Nos Estados Unidos, uma nova leva de ferramentas de IA está chegando às universidades. Enquanto muitos estudantes usam chatbots para obter respostas prontas para tarefas, um sistema recente segue o caminho oposto: ele recusa qualquer solução direta e obriga o aluno a pensar por conta própria, passo a passo.

Como um chatbot socrático de IA da University of Wisconsin–La Crosse funciona como treinadora-chefe

A equipe de pesquisa da University of Wisconsin–La Crosse criou um chatbot específico inspirado em um filósofo da Antiguidade. Em vez de vídeos explicativos ou gabaritos, o sistema aposta em uma sequência de perguntas baseada na chamada método socrático - uma espécie de “parteira” para os pensamentos.

Um exemplo típico: se um estudante pergunta como calcular a taxa de crescimento do produto interno bruto, a IA não devolve a fórmula. Ela começa com perguntas aparentemente simples:

  • O que o produto interno bruto realmente mede?
  • Quais grandezas você está comparando quando fala em crescimento?
  • Em que período você está observando a mudança?

Resposta após resposta, o chatbot vai aproximando o estudante da solução sem antecipar, em nenhum momento, o passo final.

O núcleo do sistema: nada de conhecimento mastigado, mas questionamento constante até a ficha cair por conta própria.

O sistema foi treinado com transcrições completas das aulas de macroeconomia da universidade. A IA só pode usar esse material e não tem acesso à internet. Com isso, o conteúdo permanece fortemente ligado ao currículo oficial, sem fontes aleatórias nem informação superficial da rede.

O que acontece quando a IA não pode entregar respostas

Os pesquisadores quiseram entender como esse tipo de apoio “irritante” afeta o desempenho em provas. Na primavera de 2025, eles dividiram 140 estudantes de uma disciplina de macroeconomia em quatro grupos:

Grupo Forma de trabalho
1 Sozinho, com o chatbot de perguntas
2 Apenas trabalho em grupo tradicional, sem IA
3 Primeiro com o chatbot, depois discussão em grupo
4 Grupo de controle, sem apoio especial

A análise, publicada em um documento de trabalho no SSRN, mostra diferenças claras. O ponto mais interessante é que o modo como os estudantes usam a IA faz toda a diferença - não apenas o fato de usá-la.

Quem questiona e raciocina ativamente ganha muito terreno. Quem aceita ser “alimentado” pela IA de forma passiva fica para trás.

Usuários ativos avançam; usuários passivos despencam

O melhor resultado veio do grupo misto, que primeiro trabalhou com a IA e depois continuou a discussão em equipes. No terceiro teste, o desempenho médio desse grupo ficou 12 pontos acima do grupo de controle. Em um único semestre, é um salto relevante.

A situação foi bem diferente entre os estudantes que se apoiaram demais em respostas convenientes da IA e passaram a encará-la como geradora de soluções. Quando essa muleta foi retirada em uma avaliação posterior, o desempenho deles caiu, em média, 8 pontos.

Os pesquisadores falam em uma “muleta cognitiva”: quem se acostuma a resolver toda tarefa com um clique quase não treina a própria capacidade de resolver problemas. Se o apoio desaparece de repente, a deficiência aparece sem piedade.

Erros como ponto de partida para novas perguntas na IA

Um detalhe interessante do sistema é a forma como ele lida com erros. O chatbot não corrige respostas erradas de maneira frontal; em vez disso, usa o erro como ponto de partida para a próxima rodada de perguntas.

Se um estudante confunde, por exemplo, PIB real e PIB nominal, não há uma “resposta de caneta vermelha”. A IA inicia outra sequência:

  • O que um índice de preços descreve?
  • Como esse índice muda ao longo do tempo?
  • Qual é o papel do nível de preços nas comparações de crescimento?

Algo semelhante acontece em temas mais complexos, como inflação. Se uma resposta mostra que a relação entre oferta de moeda, velocidade de circulação e nível de preços não ficou clara, surgem três ou quatro perguntas bem direcionadas. A meta é que o próprio estudante perceba em qual peça do raciocínio algo não está encaixando.

A IA não acende uma luz verde ou vermelha - ela coloca o espelho na frente e obriga à autocorreção.

O que a combinação com trabalho em grupo acrescenta

O modelo mais eficaz foi justamente aquele em que a IA era apenas o primeiro passo. Os estudantes começavam sozinhos com o chatbot e precisavam avançar individualmente por meio das perguntas. Depois, se reuniam em pequenos grupos para expor suas linhas de raciocínio.

Essa combinação gerou vários efeitos de aprendizagem:

  • Cada estudante chegava ao grupo com um caminho próprio de solução.
  • As contradições apareciam rapidamente e eram debatidas.
  • Termos técnicos e fórmulas se fixavam melhor, porque precisavam ser explicados com palavras do próprio aluno.
  • Estudantes mais tímidos ganhavam confiança com a preparação feita pela IA e ficavam mais à vontade para contribuir.

Os pesquisadores citam trabalhos de Harvard que já haviam mostrado que perguntas guiadas fixam o conhecimento no longo prazo melhor do que simplesmente despejar informação. O novo estudo vai além e mostra o quanto esse efeito cresce quando entra uma dimensão social.

Por que esta IA funciona de modo tão diferente de ChatGPT e companhia

Modelos de linguagem como ChatGPT normalmente respondem de forma direta. É justamente isso que os torna atraentes - e, ao mesmo tempo, problemáticos no contexto educacional. Muitos estudantes usam essas ferramentas para obter redações prontas, passos de cálculo ou até soluções completas de programação, sem realmente processar o conteúdo.

O novo sistema inverte essa lógica. Suas principais características são:

  • Nada de soluções prontas, apenas perguntas de retorno
  • Limitação ao conteúdo da própria disciplina
  • Os erros não são “apagados”, mas aproveitados de forma produtiva
  • O objetivo é compreensão, não velocidade

Para as instituições de ensino superior, isso abre uma possibilidade: incorporar IA às disciplinas sem o receio de que as tarefas se transformem em simples exercícios de copiar e colar. Em vez disso, as ferramentas passam a funcionar como parceiras de treino para o raciocínio estruturado.

Oportunidades e riscos para o cotidiano universitário

É claro que tudo isso exige equilíbrio. Se o chatbot for rígido demais e frustrante, os estudantes perdem o interesse rapidamente. Se for brando demais e acabar entregando meia resposta, o sistema volta a se comportar como uma máquina de respostas.

Ainda assim, o estudo mostra que, com algumas regras claras, há muito a ganhar:

  • A IA nunca deve ser a única instância; ela precisa andar junto com aulas presenciais e troca entre pessoas.
  • Os docentes precisam deixar claro como ela pode ser usada - o que é permitido e o que não é?
  • As atividades devem ser desenhadas de modo que simplesmente copiar não traga vantagem.

Ao mesmo tempo, surge a questão da equidade: se parte dos estudantes usa sistemas estritamente baseados em perguntas e outros têm acesso livre a chatbots mais poderosos, rapidamente aparecem condições desiguais. Por isso, algumas universidades discutem disponibilizar tutores de IA de forma centralizada e limitar mais fortemente os bots de resposta aberta durante períodos de avaliação.

Como levar a ideia para outras disciplinas

A macroeconomia é um campo bastante adequado para esse tipo de encadeamento de perguntas, porque conceitos como inflação, crescimento ou produtividade se apoiam logicamente uns nos outros. Mas o princípio pode ser aplicado de maneira bem mais ampla:

  • Matemática: dedução passo a passo de demonstrações em vez de caminhos prontos.
  • Informática: perguntas sobre estruturas de dados e algoritmos antes de gerar o código.
  • Direito: verificação de quais elementos legais estão presentes antes de indicar um resultado.
  • Medicina: perguntas sobre sintomas e diagnósticos diferenciais, sem oferecer um diagnóstico imediatamente.

O desafio será ver com que rapidez os professores conseguem montar seus próprios conjuntos de perguntas. Quanto mais simples for inserir e controlar os materiais das aulas nesses sistemas, mais realista se torna um uso amplo - inclusive em universidades brasileiras.

No fim das contas, fica uma conclusão simples, mas incômoda: a IA não substitui o pensamento; no máximo, ela o provoca. A questão já não é se os estudantes vão usar auxiliares digitais, mas para quê - como máquina de respostas ou como sparring insistente para a própria mente.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário