OPINIÃO

O "Olhar Clínico" do professor vale mais que terabytes de dados

por Cesar Cunha

23 de Fevereiro de 2026, 09h53

None
Divulgação

Esqueça, por um momento, os robôs humanoides que circulam pelos corredores do ExCeL London e os óculos de realidade mista que prometem "teletransportar" a sala de aula. A apresentação mais disruptiva da Bett UK 2026 não veio de uma big tech do Vale do Silício, nem envolvia hardware de última geração. Ela veio de um slide estático, projetado em uma sala escurecida, que ousou dizer o que muitos de nós pensávamos, mas temíamos verbalizar diante da "ditadura da IA".

No palco, a especialista Dawn Taylor, autora de “Behind the Algorithm”, apresentou o conceito de "The Empathetic Eye" (O Olhar Empático). Mas não se deixe enganar pelo nome suave. O que Taylor fez foi uma defesa técnica e brutal da cognição humana.

Durante anos, ouvimos que a Inteligência Artificial liberaria o professor para "ser mais humano". O clichê dizia: "A IA ensina, o professor mentora". Taylor implodiu essa noção. A tese dela? O que fazemos em sala de aula não é mágica, nem apenas "amor". É uma ciência diagnóstica de alto nível que máquina nenhuma consegue replicar.

Para entender a provocação, bastou olharmos para a parte do telão que trazia a legenda "Domínio da IA", com a imagem de uma câmera fria, focada em métricas. Velocidade. Precisão. Output.

A IA é fantástica para responder ao quê. O aluno acertou a questão 4? Sim. Quanto tempo ele levou? 12 segundos. A nota dele subiu? 5%. Isso é o que chamamos de "Performance". É o dado bruto, o cadáver da aprendizagem, dissecado em uma planilha do Excel. Se a educação fosse apenas acertar o gabarito, nós, professores, estaríamos extintos.

Mas a realidade da sala de aula não cabe numa planilha. E foi aqui que a plateia – repleta de educadores que seguravam seus celulares para fotografar o slide como se fosse uma revelação religiosa – prendeu a respiração.

No lado direito do slide, sob cores quentes e orgânicas, estava o "Olho do Professor". A frase central de Taylor deve ser impressa e colada na porta da sala dos professores de todo o Brasil: 

"This is not intuition. This is expertise." (Isso não é intuição. Isso é expertise.)

Parem de chamar o que vocês fazem de "faro" ou "instinto". Quando você olha para um aluno e sabe que algo está errado, seu cérebro está processando milhares de microdados comportamentais que a IA ignora. Taylor listou o que a máquina não vê, mas o professor diagnostica em segundos:

  1. A hesitação: o aluno acertou a resposta, mas o cursor do mouse tremeu. Ele olhou para o lado antes de responder? A IA atribui nota 10 à resposta correta. O professor sabe que aquele 10 é inseguro e que o conteúdo não foi consolidado.
  2. A evitação: O aluno que vai ao banheiro toda vez que começa a aula de matemática. Para o sistema, trata-se de uma "ausência não computada". Para o professor, é ansiedade matemática ou medo do fracasso.
  3. A fragilidade mascarada: talvez o ponto mais crucial da palestra. O slide destacava: "Distinguishing high performance that masks fragility" (distinguir alta performance que mascara fragilidade). A IA adora o "aluno nota 10". Mas só o professor percebe quando esse aluno nota 10 está à beira de um burnout, paralisado pelo perfeccionismo ou estudando apenas para a prova, sem aprender nada de fato.

Em 2026, estamos afogados em dashboards e relatórios analíticos. Mas Dawn Taylor nos lembrou que a educação acontece nas entrelinhas. A IA vê o pixel; o professor vê a pintura. A IA mede a persistência como "tempo de tela ativo". O professor distingue se esse tempo é de esforço produtivo ou se o aluno está travado, olhando para o vazio, prestes a desistir (o que o slide chama de 'Withdrawal').

A mensagem que levo de Londres para o Brasil não é para jogarmos os computadores fora. A "Lente da IA" é útil para corrigir provas em massa e gerar gráficos bonitos. Deixem que ela faça o trabalho braçal. Mas a nossa valorização profissional não virá de competir com a máquina em "quem sabe mais conteúdo". Nossa sobrevivência e nossa relevância dependem de assumirmos nossa identidade como especialistas em comportamento humano.

Nós somos os únicos capazes de ler a sala. Somos os únicos capazes de validar se o "Risco" (Risk-taking) que um aluno assume ao dar uma resposta criativa (e errada) vale mais do que a resposta certa e segura que o algoritmo premiaria.

Ao sair do auditório, enquanto a multidão se dispersava para ver o próximo robô, olhei novamente para a foto que tirei do slide. A tecnologia avançou muito, mas em 2026, a "tecnologia" mais avançada na sala de aula ainda é aquela massa cinzenta atrás dos olhos do professor. E, felizmente, essa tecnologia não precisa de atualização de software. Ela só precisa ser reconhecida não como magia, mas como a ciência complexa que realmente é.

*Cesar Cunha é diretor-geral da Tom Educação.