A capacidade que as ferramentas de inteligência artificial generativa têm, hoje, de gerar textos, imagens e mesmo conversas convincentes tem feito com que a linha que separa pessoas e máquinas esteja ficando cada vez mais difícil de distinguir. E isso muda tudo, especialmente na educação.
Com os limites entre o que é feito por humanos ou por uma IA cada vez mais “borrados”, aumentam os riscos de desinformação, manipulação e perda de confiança no mundo digital, principalmente entre crianças e adolescentes, que ainda estão aprendendo a definir em quem confiar e como diferenciar o que é verdadeiro ou falso.
Por isso, o letramento digital deixou de ser um tema complementar e passou a ser uma competência essencial. A urgência desse debate aparece em agendas globais, como relatórios recentes da OCDE sobre o futuro da educação, e também na Base Nacional Comum Curricular de Computação (BNCC Computação).
Dados divulgados no início de 2025 pelo professor Cameron Jones, da Universidade Stony Brook, em Nova York, mostram que a ferramenta de IA mais popular do mundo, o ChatGPT 4.5, da empresa OpenAI, foi considerada “humana” por pessoas em 73% das vezes em testes feitos para um estudo recente. Esta porcentagem foi, inclusive, maior do que a avaliação feita sobre textos criados por humanos tentando enganar as pessoas participantes.
Durante décadas, explica Jones, as pessoas foram ensinadas a confiar na intuição para perceber algo “estranho” ou “robótico” na internet, mas essa estratégia está perdendo força. “Muitos dos nossos participantes estavam muito confiantes de que poderiam identificar corretamente os modelos de IA, mas o desempenho deles foi muito ruim. Os resultados sugerem que nem sempre podemos confiar em nossas intuições humanas”, diz o autor do estudo.
O desafio se intensifica porque sistemas de IA também conseguem simular comportamentos humanos, incluindo expressões emocionais como alegria, tristeza ou desinteresse. Isso aumenta o potencial de influência sobre decisões, opiniões e percepções das pessoas.
Quando a imitação vira autoridade
Para Jones, os sistemas de IA conseguem modelar os estados mentais bem o suficiente para conseguir explorar e manipular as pessoas”. “Está se tornando cada vez mais desafiador distinguir entre sistemas que ‘realmente entendem’ o mundo e sistemas que estão meramente imitando a compreensão”, adverte.
Paola Cantarini Guerra, coordenadora do Centro de Estudos Avançados do Direito e Inovação da Faculdade de Direito de Ribeirão Preto da USP, estudiosa do uso de IA na educação, reforça que o risco vai além do técnico. “Sistemas artificiais passaram a produzir respostas fluentemente persuasivas sem participar das práticas normativas que sustentam o conhecimento humano: justificação, responsabilidade, contestação e revisão. Quando fluência discursiva passa a ser confundida com autoridade cognitiva, o risco não é apenas educacional, mas civilizacional.”
Ou seja: quando a autoridade passa a ser baseada apenas em “quem fala bem”, e não em quem tem fundamento, responsabilidade e pode ser questionado, há riscos para toda a sociedade.
Essa capacidade de “falar” de forma convincente das IAs generativas sem ter a responsabilidade ética de um humano pode ser especialmente perigosa para crianças e jovens que estão em pleno desenvolvimento. Eles podem confundir uma boa performance comunicativa – o “parecer saber” – com uma fonte confiável justamente na idade em que estão aprendendo a avaliar o que é verdade.
É preciso ensinar a confiar no conhecimento
A questão, porém, não é tratar a IA generativa como vilã, mas sim impedir que ela ocupe um lugar de autoridade que não deveria ter. Este é um desafio que precisa ser enfrentado imediatamente – e a escola tem um papel muito importante neste processo.
Preparar estudantes para a era da inteligência artificial exige ir além do uso técnico das ferramentas. É necessário desenvolver habilidades que fortaleçam a capacidade de construir, avaliar e validar conhecimento de forma crítica e responsável.
A educação na era da IA deve, portanto, se concentrar na reconstrução das condições sociais que tornam o conhecimento confiável. Preservar o julgamento humano não é resistir ao progresso tecnológico, mas sim a condição para que este progresso não se torne nocivo.
Como sustenta a especialista Paola Cantarini Guerra, “precisamos, acima de tudo, de pensamento crítico, criatividade e imaginação”. Essas são as competências que nenhuma IA pode simular e que nenhuma política educacional pode deixar de cultivar.
Da detecção ao consumo crítico: como falar de IA na sala de aula
A boa notícia é que já existem caminhos estruturados para integrar inteligência artificial ao currículo escolar de forma ética e pedagógica.
A Nota Técnica “Educar na Era da Inteligência Artificial: Caminhos para a BNCC Computação”, lançada pela Fundação Telefônica Vivo em parceria com o Instituto IA.Edu e a Cátedra UNESCO de IA Desplugada na Educação, traz orientações para incluir a IA nos currículos escolares de forma ética, responsável e acessível.
O documento organiza o ensino de IA em cinco dimensões principais:
- Letramento em IA — compreender o que é IA, onde está presente e como funciona;
- Papel dos Dados — entender como dados influenciam sistemas inteligentes;
- Como a IA Funciona — conhecer algoritmos, modelos e lógicas de funcionamento;
- IA em Sociedade — debater ética, impactos sociais e direitos digitais;
- Criação com IA — desenvolver soluções e projetos com uso responsável da tecnologia.
Entre os exemplos práticos, destaca-se o “Detetive de Dados”, proposto para os anos iniciais do Ensino Fundamental. Nele, os estudantes coletam informações sobre os hábitos da turma, organizam em tabelas ou gráficos e respondem: “O que uma inteligência artificial recomendaria para a nossa sala de aula com base nesses dados?”. A atividade estimula raciocínio, compreensão de dados e entendimento de como sistemas de IA funcionam.
Para o Ensino Médio, a nota sugere que os estudantes atuem como auditores, pedindo à IA uma explicação científica e, em seguida, identificando afirmações que precisam de fontes, separando o que é consenso do que é polêmica e rastreando a origem das informações.
Ao comparar a resposta da IA com revisões científicas, relatórios de instituições confiáveis e artigos ou reportagens de fontes seguras, os estudantes percebem que falar bem não significa ter evidências sólidas. Essa prática desenvolve a habilidade de avaliar informação, não importa se ela vem de uma pessoa ou de uma máquina.
Curso Cidadania Digital prepara professores para trabalhar tecnologia e IA na escola
A formação docente é apontada como elemento central para qualquer transformação curricular significativa, especialmente diante do avanço da inteligência artificial na educação.
Para apoiar educadores nesse desafio, a plataforma Escolas Conectadas oferece o curso gratuito Cidadania Digital, voltado a professores da educação básica (Ensino Fundamental I e II e Ensino Médio) que desejam trabalhar o uso seguro, consciente e responsável das tecnologias digitais em sala de aula.
O curso tem 20 horas de duração e aborda temas essenciais como direitos e deveres na internet, segurança digital, combate ao cyberbullying, discursos de ódio e uso de inteligência artificial. Dividido em quatro módulos, o percurso formativo apresenta a cidadania digital no contexto escolar, discute habilidades como reputação digital e checagem de fontes, aprofunda questões de segurança online e propõe práticas pedagógicas diversas, conectando direitos, deveres e segurança digital a diferentes matérias escolares.
A formação dá aos educadores recursos e inspirações para trabalhar o tema de forma transversal ou integrada às áreas de Ciências da Natureza, Ciências Humanas, Linguagens, Matemática e Temas Contemporâneos Transversais. Além disso, oferece um fórum online para troca de experiências entre os participantes.
Desde 2015, a plataforma Escolas Conectadas — iniciativa integrante do ProFuturo, programa global de educação da Fundação Telefônica Vivo e da Fundação Bancária “la Caixa” — reúne mais de 30 trilhas formativas voltadas à educação digital. Os cursos são autoformativos, certificados por instituições reconhecidas pelo MEC e alinhados à BNCC.

