Ler um texto gerado por IA é como comer uma bala de goma achando que era uma uva. Não é ruim, mas não é... real.
O gosto artificial é apenas parte do insulto. Há também o sentimento de manipulação. A professora de Stanford Jane Riskin descreve as redações geradas por IA como “chapadas, sem características... o equivalente literário da luz fluorescente.” Ler trabalhos de alunos pode ser, em sua melhor forma, como sentar sob o sol do pensamento e da expressão humana. Mas, então, dois cliques depois, você se vê em uma sala sem janelas, iluminada por lâmpadas fluorescentes, comendo balas de goma de loja barata.
Não há nada de novo no fato de que estudantes tentam enganar seus professores — provavelmente existem até tabuletas de argila sobre isso — mas quando os alunos usam IA para gerar o que Shannon Vallor, filósofa da tecnologia da Universidade de Edimburgo, chama de “colagem de palavras em forma de verdade”, eles não estão apenas enganando quem tenta ensiná-los, estão enganando a si mesmos. Nas palavras do professor Stan Oklobdzija, da Universidade Tulane, pedir a um computador que escreva uma redação por você é o equivalente a “ir à academia e deixar os robôs levantarem os pesos por você.”
Da mesma forma que a quantidade de peso que você consegue levantar é a prova do seu treino, levantar o peso é o treino; escrever é tanto evidência de aprendizagem quanto experiência de aprendizagem. A maior parte do que aprendemos na escola é fortalecimento mental: pensar, imaginar, raciocinar, avaliar, julgar. A IA elimina esse esforço, deixando o aluno incapaz de fazer o levantamento mental que comprova uma educação.
Pesquisas confirmam a realidade desse problema. Um estudo recente do MIT Media Lab descobriu que o uso de ferramentas de IA diminui a conectividade neural associada ao aprendizado, alertando que “embora os LLMs (modelos de linguagem de larga escala) ofereçam conveniência imediata, [esses] achados destacam potenciais custos cognitivos.”
Nesse sentido, a IA representa uma ameaça existencial para a educação — e precisamos levar essa ameaça a sério.
Por que estamos tão fascinados por essas ferramentas? Seria uma questão de “seguir a novidade brilhante” ou esse fascínio revela algo mais antigo, mais profundo e potencialmente mais preocupante sobre a natureza humana? Em seu livro The AI Mirror, Vallor usa o mito de Narciso para sugerir que a aparente “humanidade” do texto gerado por computador é uma alucinação da nossa própria mente, sobre a qual projetamos nossos medos e sonhos.
A ópera Os Contos de Hoffmann, de Jacques Offenbach, de 1851, é outra metáfora para a nossa situação contemporânea. No Ato I, o tolo e apaixonado Hoffmann se apaixona por uma autômato chamada Olympia. Explorando essa conexão com o nosso caso de amor atual com a IA, o crítico Jason Farago, do New York Times, observou que em uma produção recente no Met, a soprano Erin Morley enfatizou a artificialidade de Olympia ao adicionar “notas super agudas — quase desumanamente agudas — ausentes da partitura de Offenbach.” Eu me lembro desse momento, e da energia elétrica que percorreu o público. Morley estava interpretando a versão do século XIX da inteligência artificial, mas a escolha de imaginar notas além das que estavam escritas na partitura foi supremamente humana — o tipo de inteligência humana ousada que temo estar desaparecendo da escrita dos meus alunos.
Hoffmann não se apaixona pela autômato Olympia, nem a percebe como algo além de uma boneca animada, até que coloca um par de óculos cor-de-rosa oferecido pelo óptico Coppelius como “olhos que mostram o que você quer ver.” Hoffmann e a boneca dançam pelo palco enquanto os espectadores de olhos limpos observam e riem. Quando os óculos caem, Hoffmann finalmente vê Olympia como ela é: “Uma simples máquina! Uma boneca pintada!”
... Uma fraude.
E aqui estamos nós: presos entre os sonhos da IA e a realidade da sala de aula.
Estamos sendo enganados com óculos ilusórios? Já estamos usando esses óculos? O exagero em torno da IA não pode ser subestimado. Neste verão, uma cláusula no enorme projeto de orçamento que teria proibido os estados de aprovarem leis regulando a IA quase foi aprovada no Congresso, sendo barrada apenas no último momento. Enquanto isso, empresas como Oracle, SoftBank e OpenAI devem investir US$ 3 trilhões em IA nos próximos três anos. Na primeira metade deste ano, a IA contribuiu mais para o PIB real do que o consumo das famílias. Esses são números que distorcem a realidade.
Enquanto a grandeza e as promessas da IA ainda estão — e talvez sempre estejam — no futuro, as profecias corporativas são ao mesmo tempo sedutoras e ameaçadoras. Sam Altman, CEO da OpenAI, criadora do ChatGPT, estima que a IA eliminará até 70% dos empregos atuais. “Escrever uma redação do jeito antigo não será mais o caminho,” disse Altman ao Harvard Gazette. “Usar a ferramenta para descobrir e expressar da melhor forma, para comunicar ideias — acho que é para aí que estamos indo.”
Professores que valorizam mais o poder do pensamento e da escrita do que o sucesso financeiro das empresas de IA talvez discordem.
Então, se tirarmos os óculos por um momento, o que podemos fazer? Comecemos com o que está ao nosso alcance. Como professores e líderes curriculares, precisamos estar atentos à forma como avaliamos. A tentação da IA é grande e, embora alguns estudantes resistam, muitos (ou a maioria!) não resistirão. Um estudante universitário disse recentemente à The New Yorker que “todo mundo que ele conhecia usava o ChatGPT de alguma forma.” Isso está alinhado com o que professores ouvem de alunos sinceros.
Ajustar-se a essa realidade exigirá abraçar alternativas de avaliação, como atividades feitas em sala, apresentações orais e projetos não avaliativos que enfatizam o aprendizado. Essas avaliações consumirão mais tempo de aula, mas podem ser necessárias se quisermos saber como os alunos usam suas mentes — e não seus computadores.
Além disso, precisamos questionar criticamente a invasão da IA em nossas salas de aula e escolas. Devemos resistir ao hype. É difícil se opor a uma liderança que abraçou plenamente as promessas grandiosas da IA, mas um ponto de partida para a conversa está na pergunta que Emily M. Bender e Alex Hanna fazem em seu livro The AI Con, de 2025: “Esses sistemas estão sendo descritos como humanos?” Fazer essa pergunta é uma forma racional de limpar nossa visão sobre o que essas ferramentas podem e não podem fazer. Computadores não são, e não podem ser, inteligentes. Eles não conseguem imaginar, sonhar ou criar. Eles não são e jamais serão humanos.
Em junho, ao nos aproximarmos do final de uma unidade de poesia que continha poemas demais com cara de fluorescente, pedi à minha turma que fechasse os notebooks. Distribuí folhas pautadas e disse que, a partir daquele momento, escreveríamos nossos poemas à mão, em sala de aula, e somente em sala de aula. Alguns alunos se remexeram nas cadeiras, ouvi um leve gemido, mas logo eles estavam buscando palavras em suas mentes — palavras que rimassem, palavras que pudessem vir antes das rimas. Pedi a um estudante que passasse pelo alfabeto dizendo palavras em voz alta para encontrar sons semelhantes: “booed, cooed, dude, food, good, hood, etc.”
“Mas good não rima com food…”
“Não perfeitamente,” respondi, “mas é uma rima imperfeita, perfeitamente aceitável.”
Em vez de escrever quatro ou cinco formas poéticas diferentes, tivemos tempo apenas para três — mas eram os poemas deles, as vozes deles. Um aluno olhou da folha para cima, depois olhou de volta para baixo e escreveu, e riscou, e escreveu de novo. Eu podia sentir as faíscas de imaginação se espalhando pela sala, os caminhos mentais se formando, sinapses se ativando, redes se conectando.
Foi bom. Foi humano, como o retorno do paladar após uma breve doença.
Não mais fluorescente e artificial — foi real.
Saiba mais em: https://www.edsurge.com/news/2025-09-08-jelly-beans-for-grapes-how-ai-can-erode-students-creativity
Copyright © Direitos Reservados por Learnbase Gestão e Consultoria Educacional S.A.
Contato
contato@learnbasek12.com.br