Relatório da ONU sobre IA e Educação cita a Contribuição do Instituto Fatos e Normas
- 15 de mai. de 2025
- 6 min de leitura

GENEBRA, 15 de maio de 2025 – A Relatora Especial das Nações Unidas sobre o direito à educação, Dra. Farida Shaheed, citou o Instituto Fatos e Normas (FNI) em seu relatório à Assembleia Geral da ONU sobre Direitos Humanos, Inteligência Artificial e Educação.
Ideias do FNI repercutem no Relatório da ONU
A análise da Relatora Especial reflete diversos temas abordados no estudo de autoria do Professor Henrique Napoleão Alves e submetido pelo Instituto Fatos e Normas à ONU em 2024:
Tema abordado pelo estudo do FNI | Como refletido no Relatório da ONU |
Expansão e Tipos de IA na Educação (v.g. tutoria inteligente, apoio à escrita, learning analytics, referências às categorias temáticas do Conselho da Europa) | O Relatório da ONU detalha aplicações de IA como IA generativa, sistemas de tutoria inteligente, apoio à escrita, aprendizagem imersiva e faz referência às categorias temáticas do Conselho da Europa. |
Impacto sobre Alunos e Professores: Rastreamento, Feedback, Personalização (Citando a UNESCO) | A aprendizagem personalizada por meio de ferramentas de IA que rastreiam o progresso do aluno, fornecem feedback e adaptam trilhas de aprendizagem é discutida como uma oportunidade. |
Desafios: Modelos de Aprendizagem Simplistas, Memorização em detrimento do Pensamento Crítico | O Relatório da ONU adverte que a IA pode inibir o pensamento crítico e que a educação precisa transitar para habilidades de ordem superior, originalidade e raciocínio crítico. |
Desafios: E-Proctoring (Vigilância de Exames) Intrusivo e Discriminatório | O Relatório da ONU discute o e-proctoring como uma variante da tecnologia de reconhecimento facial usada no ensino superior, observando preocupações sobre sua natureza intrusiva e a falta de observância das regras de proteção de dados. |
Desafios: Personalização Real Limitada, Minando a Colaboração | O relatório da ONU observa que a IA não pode replicar o apoio emocional ou a conexão interpessoal e que a IA pode diminuir as interações presenciais, impedindo o desenvolvimento de habilidades sociais. |
Desafios: Análise Preditiva Prejudicial/Injusta e Comprometimento da Privacidade | O relatório da ONU detalha problemas com análises preditivas levando a resultados enviesados (algoritmo de exames do Reino Unido, exemplos de Wisconsin e Nevada) e comprometimentos de privacidade. |
Desafios: Agência de Alunos e Pais Prejudicada | O Relatório da ONU discute como provedores comerciais de IA podem reduzir a autonomia dos atores tradicionais e recomenda empoderar pais e alunos com informações. |
Desafios: Aplicações de IA Limitadas para Crianças com Deficiência | O Relatório da ONU observa preocupações de que os sistemas de IA podem discriminar indivíduos com deficiência e enfatiza a necessidade de ferramentas de IA para abordar a inclusão de alunos com deficiência. |
Desafios: IA de Alto Risco, Mau Uso de Dados, Vieses, Discriminação | O Relatório da ONU discute extensivamente vieses algorítmicos, discriminação baseada em raça, gênero, deficiência e os riscos de mau uso de dados em aplicações de alto risco. |
Desafios: Identificação Potencialmente Prejudicial/Aética do Estado Emocional do Aluno | O Relatório da ONU menciona "software de reconhecimento de emoções" usado para monitorar expressões faciais e determinar humores, destacando isso como uma preocupação. |
Desafios: Monitoramento por IA e Salvaguarda Digital – Privacidade, Consentimento, Liberdade de Expressão | O Relatório da ONU discute questões com consentimento em ambientes educacionais, propriedade de dados, vigilância e como softwares de vigilância de mídias sociais podem minar as liberdades dos alunos. |
Escassez de Evidências Imparciais sobre o Impacto Tecnológico | O Relatório da ONU afirma que o "impacto real... não é claro", que a "esmagadora maioria das supostas evidências é produzida pelos desenvolvedores" e pede "pesquisa independente e interdisciplinar". |
Acessibilidade e Exclusão Digital | O Relatório da ONU dedica espaço significativo à exclusão digital e estratégias para reduzi-la. |
Foco nos Resultados de Aprendizagem em vez de Insumos Digitais | O Relatório da ONU afirma que o uso da IA deve ser "pedagogicamente justificado" e "melhorar os resultados de aprendizagem", trazendo "valor agregado à educação de qualidade". |
Necessidade de Regulação e Controle de Qualidade | O Relatório enfatiza estruturas éticas, marcos legais/políticos robustos, monitoramento/avaliação e o papel regulador do Estado. |
Práticas Comerciais de Empresas de Tecnologia e Preocupações Éticas | O Relatório da ONU discute a pressão agressiva da IA comercial, a motivação pelo lucro e pede a regulação das empresas de tecnologia. |
Importância de um Currículo Equilibrado (Artes e Humanidades) (Citando a UNESCO) | O Relatório da ONU apoia implicitamente isso ao enfatizar a originalidade, o pensamento crítico, a criatividade e o raciocínio ético – habilidades frequentemente cultivadas nas humanidades. |
Preocupação com a Perda de Empregos devido à IA na Educação | O Relatório da ONU declara explicitamente a "preocupação de que a adoção generalizada de IA e a automação na educação possam levar à perda de empregos em larga escala". |
O Papel em Evolução dos Professores (Não Substituição pela IA) | O Relatório da ONU enfatiza o papel central dos professores, a IA como apoio e não substituição, e a supervisão humana. |
Uso de mídias sociais/smartphones e Impactos Negativos (Físicos, Mentais, Acadêmicos) | O Relatório da ONU vincula o aumento do uso de mídias sociais/smartphones a crises de saúde mental, observa os impactos da sobrecarga de informações e recomenda abordar os efeitos adversos do tempo de tela. |
Soluções Propostas (Redução do tempo de tela, limitação do uso de telefones nas escolas, etc.) | A recomendação do Relatório da ONU para "[a]bordar os efeitos adversos do tempo de tela e da IA no bem-estar físico, mental e emocional das crianças" alinha-se com a necessidade de intervenções. |
Debate sobre Alegações Causais e Necessidade de Ação Independentemente Disso (discussão do FNI sobre o trabalho de Jonathan Haidt e seus críticos) | O Relatório da ONU observa que, "[e]mbora ainda não haja consenso sobre a causa exata..., [u]ma abordagem de precaução é necessária". Isso captura o resumo do debate feito pelo FNI e o apelo à precaução. |
Abordagem de Precaução para a IA na Educação (conclusão geral do FNI) | O Relatório da ONU conclui a seção sobre o bem-estar dos alunos afirmando que "[u]ma abordagem de precaução é necessária, particularmente em ambientes educacionais". |
Reconhecimentos especiais
O Relatório da ONU reconhece particularmente a análise do Instituto Fatos e Normas em dois tópicos principais: Preocupações sobre a Perda de Empregos impulsionada pela IA na Educação e a Necessidade de uma Abordagem de Precaução para o Bem-estar e Saúde Mental dos Estudantes.
O parágrafo 59 do documento da ONU, sob a seção "Desprofissionalização do ensino", observa:
"Há também a preocupação de que a adoção generalizada da IA e a automação na educação possam levar a perdas de empregos em larga escala, especialmente em países de baixa renda e áreas que já enfrentam dificuldades em recrutar e reter professores qualificados."
O Relatório atribui expressamente essa preocupação às contribuições do Instituto Fatos e Normas, da Federação Russa e da Confederação Nacional dos Trabalhadores em Educação. O estudo do FNI havia, de fato, sinalizado a "perda de emprego devido à IA na educação e em outras áreas" como uma questão significativa que requer um escrutínio cuidadoso.
Além disso, o relatório da Relatora Especial, em sua discussão sobre "Bem-estar e saúde mental dos estudantes" (parágrafo 76), afirma:
"A crise de saúde mental dos jovens – um aumento na ansiedade, depressão e autolesão – é frequentemente ligada ao aumento do uso de mídias sociais e à adoção generalizada de smartphones e mídias sociais a partir do início da década de 2010. Embora ainda não haja um consenso sobre a causa exata e a extensão do dano, a questão principal deve ser se há evidências suficientes para considerar as tecnologias de IA, smartphones e mídias sociais seguras para crianças e adolescentes. Uma abordagem de precaução é necessária, particularmente em ambientes educacionais."
O Relatório atribui explicitamente essa perspectiva à "Submissão do Instituto Fatos e Normas". Isso reflete diretamente o argumento do FNI de priorizar a segurança dos alunos em meio às incertezas tecnológicas.
Reação do especialista
"O fato de nossa pesquisa ter sido incorporada a um documento oficial da ONU confirma que uma voz do Sul Global sobre IA e direitos humanos faz parte do debate internacional", disse o Professor Henrique Napoleão Alves, que liderou a contribuição do Instituto.
"Nossa submissão destacou as implicações da IA para os direitos humanos, pedindo uma abordagem cuidadosa, baseada em evidências e de precaução quanto ao seu impacto no bem-estar dos estudantes
Também levantamos preocupações socioeconômicas, como o risco de substituição de empregos para educadores e outros trabalhadores.
"Ver esses pontos repercutidos neste nível reforça o valor da contribuição acadêmica independente e crítica na formação de políticas globais sobre tecnologias emergentes."
Link para a Submissão do FNI:
Link para o relatório da ONU:
Sobre o Instituto Fatos e Normas:
O Instituto Fatos e Normas é uma instituição acadêmica independente sediada no Sul Global. A missão do Instituto é promover a educação baseada na razão, na justiça, nos direitos humanos e na busca pela paz. O Instituto mantém extensa colaboração com organizações internacionais, incluindo os Procedimentos Especiais das Nações Unidas. Para mais informações sobre as atividades e projetos do Instituto, visite




Comentários