Ferramentas de IA remodelam a forma como estudantes aprendem, criando desafios e oportunidades na criatividade e no desenvolvimento acadêmico
>
Por Julia Ferreira
>
A inteligência artificial tornou-se uma presença quase onipresente nas salas de aula universitárias. De acordo com o levantamento global realizado pelo Digital Education Council Global AI Student Survey 2024, 86% dos estudantes já utilizam IA em seus estudos, onde 54% fazem um uso semanal e 24% diário. As finalidades variam entre apoio em seus trabalhos acadêmicos através de resumos de textos, organizando dados, redigindo ensaios ou até mesmo estruturando projetos de pesquisa. Os números mostram que, para muitos estudantes, a IA deixou de ser uma opção para se tornar uma prática acadêmica.
>
Mas à medida que a tecnologia se expande, crescem também as preocupações. O debate que hoje ocupa as universidades já não é sobre se a IA vai moldar o futuro da educação, mas qual tipo de profissional formará. Se os estudantes estão se adaptando à IA, os professores fazem o mesmo. “Eu acho que o impacto é gigantesco, né? Nós, como professores, já percebemos… a gente vê isso sendo impactado principalmente na entrega de trabalhos”, diz Tarcisio Torres Silva, professor e pesquisador da PUC-Campinas. “Principalmente naquilo que a gente tem tentado fomentar mais, que é na criação.”
>
Tarcisio descreve a tendência preocupante dos trabalhos gerados rapidamente e de forma acrítica por ferramentas de IA, cheios de ideias “mornas” e estruturas previsíveis. “Os estudantes têm acreditado piamente, de forma cega, no que é entregue para eles em prol de uma entrega rápida e acrítica…você vê um empobrecimento justamente quando os textos entregues pelas IA são mornos, previsíveis. Isso é muito complicado, tanto em termos de trabalho acadêmico quanto da maneira como os estudantes estão entregando aquilo, com pouquíssimo envolvimento.”
>

>
Além da queda de qualidade, ele alerta para um risco mais profundo: a homogeneização do pensamento. “Essa homogeneização, no final das contas, corre risco de pasteurizar o próprio senso crítico e a criatividade deles.” Para o professor, o desafio é duplo, mas o objetivo é incentivar os estudantes a se envolverem ativamente no processo de aprendizagem e criar projetos que não possam ser executados apenas por máquinas. “Precisamos propor atividades que exijam estratégias originais, reflexão genuína e conteúdo que a IA sozinha não seja capaz de produzir”, defende.
>
Para Ricardo Peraça, pesquisador e doutor em filosofia pela Unicamp, o uso crescente da IA revela um problema sistêmico mais profundo. “De um ponto de vista ético, existe o risco de uma maior uniformização e homogeneização da escrita e do pensamento… isso pode tornar ideias e linhas de pensamento heterodoxas ainda mais marginalizadas, contribuindo para a disseminação de ideias do status quo e alinhadas com quaisquer que sejam as ideologias dos detentores de tais ferramentas. Se essas ferramentas se consolidarem como ferramentas de pesquisa, isso pode dar aos donos das big techs uma oportunidade de ouro de influenciar o pensamento de toda uma geração de estudantes, mesmo que indiretamente.”
>
Ele ressalta que os modelos de linguagem não “pensam”, apenas geram sequências de palavras com base em probabilidades. E, como são propriedade de um pequeno grupo de corporações privadas, correm o risco de moldar o conhecimento de acordo com seus próprios interesses. “Normalizando narrativas neoliberais ou individualistas sob o disfarce do progresso tecnológico.”
>
As implicações éticas vão ainda mais longe. Essas ferramentas consomem quantidades massivas de água e energia em data centers e podem expor usuários a riscos de privacidade. O discurso de que quem não adotar a IA ficará “para trás”, acrescenta ele, é uma estratégia empresarial para justificar aumento de carga de trabalho e redução de salários.
>
Como devem reagir as universidades? Peraça defende uma abordagem tripla: resistência, adaptação e transformação. As instituições devem resistir à normalização do uso da IA em pesquisas devido à sua falta de confiabilidade e ao controle corporativo. Precisam se adaptar à realidade de que os estudantes usarão essas ferramentas, não tentando proibi-las, mas repensando métodos de avaliação e integrando o letramento digital aos currículos. E devem transformar seu ensino, incluindo discussões sobre o funcionamento, os limites e os contextos sociopolíticos da tecnologia.
>
Para muitos estudantes, a inteligência artificial é mais do que uma ferramenta, ela já faz parte do ambiente acadêmico. Giulia Garrido, estudante de Ciência de Dados e IA na PUC-Campinas, afirma que a tecnologia está profundamente incorporada ao currículo. “O curso discute sim os impactos éticos da tecnologia na sociedade, seja em discussões em sala como disciplinas próprias para isso”, diz.
>
Ela acredita que a chave está em como essas ferramentas são utilizadas: “Tudo depende de quem usa. A IA nada mais é do que uma ferramenta como qualquer outra. A questão é que as IAs oferecem um grande escopo do que são capazes de fazer e auxiliar. Se a pessoa sabe bem o seu objetivo quando a utiliza, domina o assunto e contexto em que a utiliza, vejo sim ela ser capaz de estimular o pensamento crítico. O problema é achar que qualquer IA generativa está te passando a verdade. Nada mais é do que probabilidade por baixo dos panos”, conta.
>
A observação revela um fato: sistemas de IA não “pensam” nem “compreendem”. Tais ferramentas analisam padrões e predizem probabilidades com base em enormes conjuntos de dados. Sua “inteligência” é estatística, não cognitiva, e essa distinção é vital. Quando estudantes confundem respostas com verdades, correm o risco de adotar conclusões superficiais em vez de desenvolver uma análise profunda.
>
As consequências neurológicas dessa transformação ainda estão sendo estudadas, mas os primeiros indícios preocupam. O neurologista Marcio Balthazar descreve um efeito já perceptível, a dependência de ferramentas digitais (inclusive de IA) está alterando a forma como estudantes processam e retêm informações. Ele compara o fenômeno ao chamado “efeito Google”, onde as pessoas deixam de sentir necessidade de memorizar o conteúdo e passam a focar apenas em saber onde encontrá-lo.
>
O especialista alerta que, embora a IA possa ser útil para organizar estudos ou esclarecer dúvidas, o esforço de leitura, anotação e engajamento com o conteúdo ainda são pontos-chave do aprendizado. “A memória é um processo complexo, né? Resultante da retenção da experiência entre o contato do organismo com o meio ambiente, de forma mais ampla. Então, o princípio mais básico de tudo é reter a experiência do que você passou ou o que aprendeu… ela depende que todas as outras informações do organismo já estejam processadas. Informações visuais, auditivas, táteis etc. Processadas do ponto de vista também de raciocínio, de abstração”, afirma.
>
Apesar dos desafios, há consenso de que a IA está aqui para ficar e que o ensino superior precisa evoluir. Com a criação de novos cursos em ciência de dados e inteligência artificial, as universidades buscam formar profissionais não apenas capazes de usar essas ferramentas, mas também de construí-las, adaptá-las e criticá-las.
>
Essa competência será crucial à medida que grandes empresas de tecnologia concentram o controle dos sistemas mais poderosos, que exigem enorme poder computacional e vastos conjuntos de dados, inacessíveis para instituições menores. Uma alternativa promissora está no desenvolvimento de modelos menores e especializados e de LLMs nacionais criados dentro das universidades, voltados a contextos específicos e guiados por interesses públicos.
>
“A fim de conciliar a IA com esses valores… pode ser benéfico fomentar a criação de LLMs nacionais em universidades, desde que considerados os impactos éticos, sociais e ambientais da sua criação e manutenção”, reforça Peraça.
>
A movimentação das universidades para acompanhar essa transformação já começou. Na PUC-Campinas, por exemplo, a demanda crescente por formação especializada levou à criação de um novo curso de bacharelado em inteligência artificial, que entrará em vigência no primeiro semestre de 2026. Segundo Valdomiro Plácido dos Santos, diretor do curso, a decisão nasceu da necessidade de responder ao interesse cada vez maior pela área.
>
>

>
“A ideia surgiu de uma demanda da reitoria, que identificou o aumento da busca por cursos que têm inteligência artificial no nome no Brasil. Analisando essa procura, a universidade resolveu lançar um curso com foco exclusivo na IA”, explica.
>
O novo bacharelado será estruturado para formar profissionais com base técnica sólida e capacidade de aplicar soluções inteligentes em problemas complexos. O desenho curricular, segundo o professor, foi elaborado com referência às diretrizes da Sociedade Brasileira de Computação, que publicou recentemente um manual sobre competências essenciais na área.
>
“Queremos preparar o aluno para resolver problemas complexos com IA nas empresas, na sociedade e nos governos. Ele precisa ter uma formação técnica na essência da inteligência artificial e competência para utilizar essas ferramentas de forma estratégica, indo muito além das tarefas simples”, afirma Valdomiro.
>
Orientação: Profa. Rose Bars
Edição: Murilo Sacardi
.
.
.
.
.
.
.
.

