Meus Apps


Universidades brasileiras discutem regulamentação do uso de inteligência artificial na academia

Postado em: 29/08/2024 | Por: Emerson Alves

Instituições de ensino superior no Brasil estão debatendo as melhores práticas e limites éticos para o uso de inteligência artificial, especialmente na escrita acadêmica e na pesquisa científica.

Com o avanço das tecnologias de inteligência artificial (IA) generativa, universidades brasileiras estão buscando estabelecer diretrizes claras para o uso dessas ferramentas no ambiente acadêmico. A popularização de softwares como o ChatGPT, que podem gerar texto, imagens e dados, tem levantado questões sobre os limites éticos de seu uso, particularmente na produção de trabalhos acadêmicos. A preocupação central é garantir que a utilização dessas tecnologias seja feita de forma transparente, respeitando os direitos autorais e evitando práticas como plágio e a disseminação de desinformação.

Leia também: Engenheiros de IA na China acessam secretamente chips da Nvidia proibidos pelos EUA.

Iniciativas de regulamentação nas universidades

O Senai Cimatec, na Bahia, foi uma das primeiras instituições a publicar um guia específico para orientar sua comunidade acadêmica sobre o uso de IA generativa. O documento baseia-se em três princípios fundamentais: transparência, centralidade na pessoa humana e privacidade de dados. Ele autoriza o uso de softwares de detecção de plágio e exige que todos os comandos e resultados gerados por IA sejam descritos na metodologia dos trabalhos acadêmicos.

Outras universidades, como a Universidade Federal de Minas Gerais (UFMG) e a Universidade de São Paulo (USP), também estão avançando em suas discussões. A UFMG, por exemplo, propôs a criação de um comitê de governança para supervisionar o uso dessas tecnologias, enquanto a USP realizou debates e publicou um dossiê sobre o impacto da IA na pesquisa científica. Ambas as instituições destacam a importância de educar a comunidade acadêmica sobre o uso responsável da IA, sugerindo a inclusão de cursos de letramento em IA para professores e alunos.

Desafios e adaptações no ensino e na pesquisa

Com a disseminação das tecnologias de IA, muitos professores estão buscando novas formas de avaliar os trabalhos dos alunos. Na USP, por exemplo, alguns docentes passaram a exigir apresentações orais ou trabalhos feitos à mão, enquanto outros pedem a elaboração de mapas mentais para garantir a originalidade dos conteúdos. A IA também está sendo utilizada em atividades de pesquisa, como no Centro de Inteligência Artificial (C4AI) da USP, onde alunos utilizaram o ChatGPT para realizar análises de sentimentos em redes sociais.

O uso da IA no ensino também tem se mostrado promissor. Na Universidade Estadual de Campinas (Unicamp), uma disciplina-piloto foi oferecida com o auxílio de assistentes de código gerados por IA. Essa abordagem permitiu que os alunos focassem na resolução de problemas complexos, deixando para a IA a tarefa de gerar os códigos básicos, o que otimizou o processo de aprendizado.

Regras internacionais e impactos na publicação científica

Além das universidades, editoras científicas internacionais também estão estabelecendo regras para o uso de IA generativa. Levantamentos recentes indicam que uma parcela significativa dos cientistas já utilizou IA para redigir manuscritos ou pedidos de financiamento. Editoras como Springer Nature e Elsevier já proíbem a inclusão de IA como autora de artigos e exigem que seu uso seja documentado na seção de métodos dos manuscritos. No Brasil, a SciELO também publicou um guia que exige a transparência no uso de IA e proíbe que a tecnologia seja citada como autora.

A adoção de IA nas universidades e na pesquisa científica é inevitável, mas as instituições estão cientes dos desafios éticos e metodológicos que essas tecnologias apresentam. A criação de regras claras e o incentivo ao uso responsável da IA são passos essenciais para garantir que a inovação tecnológica beneficie a comunidade acadêmica sem comprometer a integridade científica.