Futuros digitais mais justos na educação
A construção de futuros digitais justos na educação não depende apenas dos sistemas de tecnologia de Inteligência Artificial (IA), é fundamental que essa transformação tecnológica esteja alinhada a princípios essenciais, como liberdade, privacidade, justiça social, direitos humanos, propiciados pela participação ativa de professores e estudantes. Caso contrário, há o risco de a tecnologia acabar por reforçar desigualdades históricas e perpetuar preconceitos por meio de algoritmos enviesados, resultando em exclusões no ambiente escolar.
A criação de um ecossistema educacional digital justo exige, antes de tudo, a inscrição da inteligência artificial (IA) na moldura principiológica do Estado Democrático de Direito, de modo a compatibilizar inovação com os vetores constitucionais de dignidade, igualdade, liberdade, pluralismo pedagógico e não discriminação. Nessa chave, a inserção de sistemas algorítmicos na gestão escolar e na prática docente não pode subtrair o devido processo decisório educacional, nem tampouco relegar a segundo plano a autonomia intelectual discente. A governança algorítmica em educação, assim compreendida, reclama métricas de proporcionalidade, necessidade e adequação pedagógica, com registro auditável das razões técnico-didáticas que justificam cada intervenção automatizada. A ideia de “justiça educacional digital” passa, pois, pela exigência de accountability pedagógica e pelo fortalecimento de instâncias de participação de professores, estudantes e famílias, sob pena de opacidade tecnológica e captura privada de bens públicos intangíveis (dados, atenção, trajetórias de aprendizagem).
Nesse cenário, a UNESCO (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) publicou um importante documento – o AI Competency Framework for Teachers (Marco Referencial de Competências em IA para Professores)[1], que faz uma reflexão sobre a integração dos sistemas de IA na prática pedagógica e orienta educadores sobre o uso ético, crítico e eficaz da Inteligência Artificial. “Os professores são os principais utilizadores da IA na educação e os principais mediadores para garantir a redefinição e o equilíbrio adequados na evolução gradual da relação entre humanos e tecnologia em geral, e entre conhecimento e aprendizagem em particular”, afirma o documento.
E por onde acessar essa ampliação da participação dos educadores? Sem dúvida, pelo domínio da Literacia Algorítmica, um conceito não muito popular, considerado fundamental para atingir a educação de qualidade, pois se volta à compreensão crítica acerca das decisões algorítmicas habilitadas por IA na governança educacional. A educação algorítmica, como sustenta a UNESCO, deve unir a clareza da transparência e o processo de transmissão de conhecimento dentro de um sistema ao mesmo tempo automatizado e complexo. Caberia aos professores, portanto, serem capacitados em um conjunto de competências para assegurar que os valores humanos e sociais, como a inclusão e a sustentabilidade, tenham prevalência nos espaços digitais porque a interação professor- aluno, agora é triangular, incluindo os sistemas de IA.
No plano infraconstitucional, cumpre delinear, com precisão, os papéis de controladores e operadores no tratamento de dados educacionais, estabelecendo bases legais adequadas (execução de políticas públicas na rede pública, cumprimento de obrigação legal, consentimento quando exigido, entre outras) e impondo o princípio da minimização como parâmetro de coleta. A proteção de dados, nesse domínio sensível, deve corporificar-se em privacy by design e security by design, com elaboração de Relatório de Impacto à Proteção de Dados (RIPD) sempre que a adoção de ferramentas de IA puder implicar riscos elevados a direitos fundamentais de crianças, adolescentes e profissionais da educação. A responsabilização solidária entre atores da cadeia edtech não é automática, mas a repartição de deveres preventivos e de transparência contratual é indefectível à luz da legislação vigente. Em termos práticos, nenhuma solução de IA deve ser implementada sem registro do mapeamento de dados, critérios de retenção e mecanismos de atendimento a direitos dos titulares. Tais exigências não constituem entraves, mas condição de legitimidade e de qualidade pedagógica da transformação digital.
Em termos legislativo, inúmeros projetos em tramitação abarcam o tema, mas é o Projeto de Lei do Senado 2.225/2025[2], que institui a Política Nacional de Formação e Capacitação de Professor da Educação Básica em Inteligência Artificial como Assistente Pedagógico, objetivando capacitar o professorado, desenvolver programa de formação, incentivar soluções de IA no processo ensino-aprendizagem, incluir digitalmente profissionais da educação e estabelecer parceria com instituições públicas e privadas para ampliar o uso de IA no contexto educacional.
A partir da articulação entre a Política Nacional de Educação Digital (Lei 14.533/2023), a LGPD e a agenda regulatória de IA (PL 2.338/2023), o artigo sustenta que a educação digital opera como vetor de prevenção de danos no ambiente informacional, deslocando o eixo clássico da responsabilidade civil da mera recomposição ex post para uma governança ex ante calcada em accountability, segurança e privacidade desde a concepção. Nessa perspectiva, o letramento digital — entendido como competência crítica e cidadã — não só mitiga assimetrias de acesso e informação, como robustece o dever de cuidado de agentes públicos e privados na cadeia tecnológica, especialmente quando a automação e a circulação massiva de dados podem amplificar riscos de discriminação, desinformação e violação de direitos da personalidade. O texto realça que políticas públicas de inclusão e educação digital devem ser acompanhadas de critérios de proporcionalidade e transparência, com atenção às vulnerabilidades socioeconômicas que potencializam o dano e redistribuem indevidamente os custos da transformação tecnológica. Em síntese, a educação digital é tratada como infraestrutura jurídica e pedagógica indispensável para conformar o uso das TICs e dos sistemas de IA aos fins constitucionais de dignidade, igualdade e não discriminação, reposicionando a responsabilidade civil como mecanismo de tutela da confiança e de gestão de riscos na sociedade em rede.[3]
Há uma lacuna dos professores brasileiros no que tange à Literacia Algorítmica, uma vez a maioria do corpo docente não recebeu capacitação e carece de competência digital para guiar os alunos no universo das tecnologias de IA. Uma autoavaliação realizada com 180 mil professores brasileiros de educação básica pelo Centro de Inovação para a Educação Brasileira (CIEB) aponta que eles não se sentem aptos a utilizar tecnologias de IA em salas de aula.[4]
Por essa e outras razões é tão importante que o Brasil tenha conquistado a Cátedra rede UNESCO Unitwin com foco em IA na educação, hospedada pela Universidade Federal de Alagoas e pela Universidade de São Paulo, além de ter lançado o Instituto de Inteligência Artificial na Educação Desplugada (IA. Edu) para articular academia, governo e sociedade em torno do tema. A cátedra coloca o Brasil como uma das principais lideranças globais nas pesquisas e debates sobre a IA na educação e abre a perspectiva de instituir políticas públicas para transformar o ecossistema educacional no país frente à Literacia Algorítmica e ao letramento digital, que se refere à capacidade de usar tecnologias digitais de forma eficaz, ética e crítica. O documento fornece um roteiro concreto para formação inicial e continuada, orienta o desenho curricular e apoia parâmetros avaliativos de competência digital docente. Ao reconhecer a nova dinâmica “professor-IA-estudante”, o marco reafirma a centralidade do julgamento pedagógico humano e exige capacidade crítica para selecionar, adaptar e auditar tecnologias educacionais. A internalização desse framework em políticas formativas nacionais eleva o padrão de qualidade e de segurança no uso de IA em sala de aula.
O documento da UNESCO destaca ser fundamental garantir que os professores tenham capacidade de compreender como os sistemas de IA são desenvolvidos, treinados, como funcionam e como podem ser identificados. Os professores devem ter domínio sobre ferramentas confiáveis que assegurem a proteção de dados dos alunos, respeitando a legislação em vigor, como a Lei Geral de Proteção de Dados (LGPD), no caso brasileiro. O documento ressalta que “A educação não pode abrir mão de seu papel de preparar cidadãos consciente e participativos e o combate da desinformação”, ajudando os alunos a navegar por um universo onde possam reconhecer o que é desinformação e o que são conteúdos com credibilidade, aprofundando a percepção na consolidação da cidadania.
Há preocupações quanto à privacidade e à segurança de dados de professores, alunos e demais atores do universo educacional. A exposição indevida ou o uso não autorizado desses dados pessoais pode gerar consequências graves, como discriminação algorítmica, violação de direitos fundamentais, assédio digital e perda de confiança na instituição. Além disso, a assimetria de poder entre os detentores da tecnologia e os usuários finais — alunos e professores — agrava o risco de práticas abusivas. Por isso, a adoção de tecnologias educacionais deve ser acompanhada por uma governança responsável dos dados no ambiente escolar, que respeite os direitos fundamentais e promova a confiança de todos diante dos sistemas de IA.
Na avaliação da UNESCO, os “Valores de empatia, altruísmo, justiça, compaixão intercultural e solidariedade são essenciais para a coesão social e para defender a nossa humanidade comum”. Quando a IA é utilizada sem considerar esses princípios, corre-se o risco de reforçar desigualdades, automatizar preconceitos e desumanizar as relações pedagógicas. Essas competências são fundamentais para a convivência democrática e para a construção de uma sociedade mais justa e solidária.[5] Com mediação dos professores, sistemas de IA podem identificar desigualdades de aprendizagem, personalizar o ensino e apoiar alunos em situação de vulnerabilidade.
De acordo com o documento, “O uso de IA na educação sem a devida orientação pedagógica [ainda] pode fragilizar o desenvolvimento intelectual dos estudantes”. A UNESCO recomenda a idade de 13 anos para uso da IA nas salas de aula. Assim sendo, a aprendizagem é projetada como um processo complexo que envolve não apenas a aquisição de informações, mas também a construção de sentidos, o desenvolvimento do pensamento crítico, da criatividade e da autonomia intelectual. A IA, por mais avançada que seja, opera com base em padrões e dados preexistentes, o que pode levar à padronização do ensino e à limitação das experiências cognitivas dos alunos quando utilizada de forma isolada.[6]
A tutela dos sujeitos da educação também compreende a disciplina das decisões automatizadas: cabe assegurar informação adequada, possibilidade de revisão por pessoa natural e mecanismos de contestação acessíveis, especialmente quando algoritmos influenciam trajetórias, avaliações ou encaminhamentos pedagógicos. Em paralelo, políticas de desenho apropriado à idade (age-appropriate design) devem pautar a adoção de ferramentas generativas, resguardando o desenvolvimento cognitivo, a proteção integral e a formação crítica. As diretrizes internacionais mais recentes recomendam, como baliza prudencial, limite etário mínimo para uso autônomo de ferramentas generativas no ambiente escolar e a mediação docente como condição de sentido pedagógico. Tal orientação reforça que a IA na educação é sempre meio, jamais fim, e que o professor permanece como garante de sentido, contexto e ética da aprendizagem.
Na experiência educacional, o nível de progressão de competências esperadas dos professores diante das tecnologias de IA passam por três níveis: Adquirir, ao alinhar a IA na sua prática diária e processos de aprendizagem; aprofundar, ao promover uma análise mais verticalizada das ferramentas de IA identificando vantagens e riscos e criar, quando empregam os sistemas de IA para criar soluções para questões educacionais, sem deixar de lado uma avaliação crítica desses resultados.
Diante dos avanços digitais que irão substituir ou alterar 85 milhões de empregos e criar 97 milhões de novos postos de trabalho em todo o mundo, o uso da IA na educação tem um papel fundamental na requalificação dos currículos escolares e na formação dos estudantes, uma vez que todas as funções no mercado de trabalho atualmente exigem algum grau de conhecimento tecnológico, como apontou o Fórum Econômico Mundial. Dois termos em inglês resumem essa realidade que está transformando o universo do trabalho: upskilling – o desenvolvimento de habilidades para que o estudante se torne mais qualificado. Por exemplo, um bacharel em Direito que aprenda tecnologias voltadas à sua prática. E reskilling- que envolve o aprendizado de habilidades novas que respondam aos avanços tecnológicos. A escola ajuda a criar, portanto, uma força de trabalho mais ágil, flexível e adaptável às inovações.
Sem a mediação de educadores capacitados tecnologicamente, com visão ética e crítica da IA, há o risco de os estudantes se tornarem consumidores passivos de conteúdos gerados por algoritmos, perdendo oportunidades valiosas de reflexão, diálogo e construção coletiva do conhecimento. Além disso, a ausência de intencionalidade pedagógica pode reforçar desigualdades, uma vez que nem todos os alunos possuem as mesmas condições de acesso, compreensão e uso crítico das tecnologias.
A contratação e o uso de soluções edtech pela administração pública e por escolas privadas devem observar cláusulas de transparência algorítmica, portabilidade de dados, vedação a usos secundários não autorizados, padrões de segurança e mecanismos de auditoria independente. É prudente exigir avaliações prévias de impacto algorítmico-pedagógico, com testes de acurácia, análise de vieses e validação de pertinência didática à luz do projeto pedagógico. Também se recomenda governança contratual com métricas de desempenho, logs de decisões automatizadas e trilhas de explicabilidade, além de planos de descontinuidade e de reversibilidade tecnológica para prevenir lock-in. Diretrizes internacionais de ética em IA e consensos educacionais reforçam que o desenho institucional deve preservar agência humana, inclusão e diversidade linguística e cultural, condições sem as quais a IA se converte em fator de desigualação escolar.
Por fim, a reconfiguração do mundo do trabalho impõe ao currículo escolar responsabilidades adicionais: upskilling e reskilling tornam-se eixos estruturantes para que a escola forme sujeitos capazes de aprender ao longo da vida em ambientes intensivos em dados e automação. Evidências globais estimam deslocamentos e emergências de milhões de postos em horizonte de curtíssimo prazo, o que acentua a urgência de competências digitais, pensamento crítico, criatividade e colaboração — todas atravessadas pela literacia algorítmica docente e discente. A resposta educacional responsável não é tecnofílica nem tecnofóbica, mas hermenêutica: integra IA quando agrega valor pedagógico demonstrável, recusa-a quando ameaça direitos e sempre subordina a técnica ao projeto humanista da educação. Em síntese, a justiça educacional no século XXI dependerá menos do fascínio por ferramentas e mais da capacidade de governá-las à luz de direitos, evidências e ética pública.
[1] UNESCO. AI Competency Framework for Teachers. Paris: UNESCO, 2024. Disponível em: https://www.unesco.org/en/articles/ai-competency-framework-teachers Acesso em: 26 ago. 2025.
[2] BRASIL. CÂMARA DOS DEPUTADOS. Projeto de Lei n. 2.225, de 2025. Institui a Política Nacional de Formação e Capacitação de Professores da Educação Básica em Inteligência Artificial como Assistente Pedagógico. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2507228. Acesso em: 26 ago. 2025.
[3] FALEIROS JÚNIOR, José Luiz de Moura. Educação digital e responsabilidade civil. Migalhas, Coluna Migalhas de Responsabilidade Civil, 22 out. 2024. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade-civil/417956/educacao-digital-e-responsabilidade-civil Acesso em: 26 ago. 2025.
[4] CIEB – CENTRO DE INOVAÇÃO PARA A EDUCAÇÃO BRASILEIRA. Autoavaliação de Competências Digitais de Professores(as) – Guia EduTec. Disponível em: https://plataforma.guiaedutec.com.br/ge-em-numeros/autoavaliacao-professores Acesso em: 26 ago. 2025.
[5] UNESCO. AI Competency Framework for Teachers. Paris: UNESCO, 2024. Disponível em: https://www.unesco.org/en/articles/ai-competency-framework-teachers Acesso em: 26 ago. 2025.
[6] UNESCO. Guidance for Generative AI in Education and Research. Paris: UNESCO, 2023. Disponível em: https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research Acesso em: 26 ago. 2025.
