Sistemas de IA no Ensino Superior brasileiro: caminhos para um debate sobre regulação e uso

Autores

  • Jonas Gonçalves da Silva Instituto de Estudos Avançados da USP
  • Camila De Paoli Leporace Instituto de Estudos Avançados da USP
  • Rafael Cardoso Sampaio Instituto de Estudos Avançados da USP
  • Artur Marques da Silva Neto Instituto de Estudos Avançados da USP
  • Bruno Valente Pimentel Instituto de Estudos Avançados da USP

Palavras-chave:

Inteligência artificial, sistemas de IA, autorregulação, Ensino Superior, diretrizes

Resumo

A presente proposta de mesa coordenada visa a realização de um debate tão relevante quanto necessário diante do atual panorama, marcado pela ascensão vertiginosa de recursos tecnológicos fundamentados em sistemas de inteligência artificial (IA): mesmo três anos após o advento da vertente generativa da IA, que tanto promoveu essa tecnologia de propósito geral no debate público, poucas Instituições de Ensino Superior (IES) brasileiras definiram dispositivos de autorregulação para nortear processos de ensino, pesquisa, extensão e gestão envolvendo esses recursos, disponibilizados em diferentes formatos e interfaces, a exemplo de robôs conversacionais (chatbots) e agentes autônomos, sendo que a governança destes últimos em diferentes esferas são objeto de estudos de um grupo de pesquisa formado em 2025 no âmbito da Cátedra Oscar Sala do Instituto de Estudos Avançados da Universidade de São Paulo (IEA-USP) e do qual os autores fazem parte. 

Em meio a esse cenário próximo de um vácuo regulatório, agravado pela morosidade da tramitação do Projeto de Lei nº 2.338/2023 na Câmara dos Deputados, emerge uma perigosa gama de riscos sistêmicos que ameaça a integridade acadêmica e a qualidade da produção de conhecimento científico, especialmente no aspecto ético. Longe de ser apenas um “modismo”, a IA generativa consolidou-se rapidamente como uma infraestrutura paralela de apoio acadêmico, operando em larga escala, de forma instantânea e, na maioria das vezes, sem qualquer mediação, antes mesmo da implementação de quaisquer medidas mais amplas, como reformas curriculares, aprovações de comitês ou mudanças de políticas institucionais (Alvarez, 2025).

A situação brasileira, que tanto pode ser explicada em razão de uma possível morosidade que permeia as instâncias decisórias quanto por uma discussão gradual e absolutamente necessária sobre os desafios éticos gerados pela IA, contrasta com a que se observa em outros países, especialmente os EUA. De acordo com o monitoramento de guidelines para uso de IA no Ensino Superior mantido pelo grupo de pesquisa Understanding Artificial Intelligence (UAI), vinculado ao IEA-USP, das 82 IES mapeadas, 64 (o equivalente a 78%) são estadunidenses. 

Camadas organizacionais de burocracia, ausência de dados que subsidiem um mapeamento da realidade do uso de IA nas comunidades universitárias e incertezas decorrentes da falta de um marco regulatório geral, conforme já mencionado, são outras possíveis explicações para o contexto atual, que demanda uma intensificação dos debates nos fóruns acadêmicos a fim de que grupos especializados de trabalho (comissões ou comitês) possam ser criados nas IES e, ato contínuo, tenham condições de deliberar sobre políticas institucionais aptas a orientar processos e práticas realizados com o auxílio de recursos baseados em IA.

Estas questões integram um universo mais amplo, que vem sendo moldado pelo avanço crescente das grandes companhias globais da área de Tecnologia (“big techs”) sobre a área da Educação visando atender a demandas diversas de ordem operacional, a exemplo da implementação de “pacotes” envolvendo aplicativos, e-mails institucionais, espaços compartilhados de trabalho e, mais recentemente, “soluções de IA”, lançadas ao longo de 2025 por algumas das big techs, o que aumentou de forma expressiva a urgência do debate ora proposto: o Google disponibilizou o Gemini for Education integrado ao Google Classroom (Google for Education, 2025); a Microsoft liberou o Microsoft 365 Copilot para estudantes a partir de 13 anos (Microsoft Education, 2025); e a IBM mantém sua estratégia por meio da plataforma IBM AI Education (IBM, 2025). Este fenômeno, analisado criticamente por alguns estudos sobre plataformização (Srnicek, 2017; Van Dijck, Poell e De Waal, 2018; CGI.br, 2022), evidencia não apenas uma transformação técnica, mas uma reconfiguração profunda das relações de poder e dos modelos de governança no âmbito educacional. As IES brasileiras permanecem em estágio embrionário de discussão institucional sobre estas ferramentas, configurando o que Couldry e Mejias (2019) denominam “colonialismo de plataforma”: um cenário de dependência tecnológica, extração de dados educacionais e transferência de autonomia pedagógica para algoritmos proprietários, cujos vieses e lógicas de funcionamento permanecem opacos à comunidade acadêmica, ameaçando a soberania digital e a função social da produção de conhecimento científico.

Essa incorporação acelerada, estimulada por interesses comerciais e administrativos, contrasta de forma alarmante com a realidade, que corre em um ritmo não muito distante de uma inércia regulatória, mesmo levando-se em conta os processos de implementação em curso: em um levantamento realizado nos meses de julho e agosto de 2025, foram verificados 158 portais de IES brasileiras, incluindo 69 universidades federais, 38 estaduais, 35 católicas e 16 particulares. O resultado sinaliza uma preocupante omissão da maior parte desse universo pesquisado: foram encontrados apenas sete documentos oficiais, na forma de guias, recomendações ou resoluções, emitidos pelas  universidades federais da Bahia (UFBA), do Delta do Parnaíba (UFDPar, do Piauí), de Goiás (UFG) e de Minas Gerais (UFMG), além da Universidade Estadual Paulista (Unesp), todas públicas; e do Centro Universitário do Senai Cimatec, de Salvador (BA) e da Pontifícia Universidade Católica do Paraná (PUC-PR), ambas da esfera privada (Sampaio, 2025). Posteriormente, em setembro do mesmo ano, a Universidade Federal de Ouro Preto (UFOP) publicou uma resolução em que definiu as suas próprias balizas, o que reforça a dinâmica de um cenário em transformação, ainda que em um ritmo aquém do necessário diante da emergência da demanda.

Cabe salientar também a existência de “trilhas alternativas” que têm sido percorridas por algumas IES antes da consolidação de regramentos mais amplos. Dois exemplos são provenientes das universidades federais de Viçosa (UFV) e do Ceará (UFC): no caso da primeira, sete grupos de trabalho formados por estudantes, professores e funcionários técnico-administrativos discutiram, ao longo de 2025, o uso de IA em diferentes âmbitos — da aprendizagem às práticas docentes, passando por pesquisa, extensão e questões de ordem ética — e apresentaram os resultados obtidos durante um evento promovido em outubro. 

Já a UFC adotou o que pode ser entendido como uma “solução preliminar”, publicando uma portaria voltada especificamente para a pós-graduação, cujas finalidades são estabelecer usos permitidos e proibidos em trabalhos acadêmicos (qualificações, dissertações e teses), além de regras para a verificação de similaridade por meio do Turnitin (um software adotado de forma oficial pela universidade), seguida de análise humana para fins de confirmação de eventuais ocorrências de plágio. Contudo, é necessário ressaltar o teor consideravelmente restritivo e pragmático desta normativa, basicamente calcada em exemplos de usos proibidos e, ao mesmo tempo, assinalando princípios gerais — a exemplo de “transparência”, “autoria humana” e “integridade acadêmica” — que devem nortear eventuais aplicações, assinaladas por meio de uma declaração a ser submetida juntamente com os trabalhos realizados. Além disso, a portaria prevê que cada programa de pós-graduação da universidade deve ter uma política interna para uso de IA, sendo ainda atribuída aos docentes a responsabilidade de especificar, nos planos de ensino de disciplinas ou em orientações de atividades avaliativas, se proíbem ou não o emprego de recursos automatizados. Nesses moldes, entende-se que a normativa não oferece a professores e estudantes uma diretriz institucional plena, o que tende a estimular utilizações não declaradas e sem as balizas necessárias, haja vista o panorama atual, marcado por uma adoção crescente dos sistemas de IA como ferramentas de apoio no espectro de cursos de graduação e pós-graduação.

Para além da necessidade de regulação da inteligência artificial nas IES, será discutido o desafio de criar balizas para tecnologias ainda pouco compreendidas, tanto em termos de seu funcionamento quanto de sua constituição. Os impactos do uso de modelos de linguagem ampla (LLMs, na sigla em inglês) para a cognição humana e a aprendizagem ainda são pouco estudados, mas torna-se necessário compreender de que forma esses sistemas se articulam com os processos cognitivos para compreendermos as bases sobre as quais as regulações podem se erguer. Afinal, acreditamos que, independentemente da agilidade de criação e adoção de regulações para a inteligência artificial nas instituições, estão em jogo as negociações entre alunos e professores e também entre professores e supervisores de ensino. Essas negociações envolvem um entendimento de como o uso de IA generativa impacta a cognição, a criatividade, a memória, a capacidade critica e reflexiva, entre outros aspectos.

Com base nas diretrizes já publicadas, intenciona-se realizar uma análise documental dos entendimentos que cada IES apresenta sobre o uso de inteligência artificial. A partir dos resultados obtidos, o estudo irá propor uma categorização desses documentos e verificar em que medida as orientações institucionais tendem a ser efetivas diante de uma tecnologia em constante transformação (também conhecido como “estado de beta perpétuo”). Salienta-se que não se entende a implementação de diretrizes, em qualquer uma das modalidades apresentadas até o momento — recomendações, guias, portarias ou resoluções —, como uma solução definitiva, mas sim como um ponto de partida para um processo contínuo de aprimoramento, mediante a criação de espaços onde grupos integrados por representantes das partes interessadas da comunidade acadêmica (estudantes, docentes, profissionais técnico-administrativos e gestores) possam realizar um exercício providencial que conjuga reflexão crítica, disposição para o diálogo e autonomia para a tomada de decisões estratégicas para o futuro das Instituições de Ensino Superior.

Downloads

Publicado

14-04-2026