Setembro/2024
Marina Lemle | Blog de HCS-Manguinhos
Até onde pode ir a Inteligência Artificial? Um artigo científico pode ser gerado artificialmente?
Questão que vem perturbando o mundo acadêmico, a Inteligência Artificial Generativa (GenAI, sigla em inglês) foi tema de uma apresentação realizada na Fiocruz em 8 de agosto, no evento em comemoração aos 30 anos da revista História, Ciências, Saúde – Manguinhos. A professora Sônia Menezes, editora da Revista Brasileira de História (RBH) e pesquisadora da Universidade Regional do Cariri, explicou que a GenAI é capaz de gerar conteúdos de forma autônoma nas mais diferentes linguagens, como texto, imagem, vídeo e áudio, além de programação de software. Também pode corrigir, traduzir e até “melhorar argumentos de forma surpreendente”. Primeira a falar na mesa “Qualis Periódicos na área de história”, a sua apresentação instigou muita reflexão e debates. Ela explicou que outra característica importante do modelo generativo operado pelo ChatGPT e seus similares é ser capaz de aprender ou ser treinado por/com humanos. O modelo trabalha com um sistema de aprendizado profundo que tem por base uma rede neural artificial.
Mas, então, como saber se um conteúdo foi criado por um ser humano ou se foi gerado artificialmente?
A editora da RBH citou os principais marcos e diretrizes gerais de uso em pesquisa e editoriais. Em dezembro de 2022, a revista Nature publicou o primeiro artigo discutindo preocupações sobre o uso de ChatGPT e GenAI na redação científica. Em janeiro de 2023, foi a vez da Science publicar artigo declarando sua decisão de proibir o uso do GenAI para gerar texto, figuras, imagens ou gráficos no processo de escrita, e afirmando ser uma violação da política e constituir má conduta científica.
No mês seguinte, o Comitê de Ética em Publicação (Cope) divulgou uma declaração sobre ferramentas de IA em publicações de pesquisa enfatizando que elas “não podem cumprir os requisitos de autoria pois não podem assumir a responsabilidade pelo trabalho enviado”, não podendo legalmente afirmar a presença ou ausência de conflitos de interesse nem gerenciar contratos de direitos autorais e licença.
No mesmo ano a Unesco lançou o Guia para a IA generativa na educação e na pesquisa, destinado a acadêmicos e professores, a fim de orientar sobre os usos da AI tanto no ensino como na produção acadêmica, traduzido para várias línguas, inclusive o português. Também em 2023 o SciELO lançou o Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO. Entre os principais problemas e desafios da GenAI é que os textos produzidos pelos modelos são baseados na probabilidade de uso de palavras por humanos, o que implica a ocorrência de variações sintaticamente viáveis, mas incorretas ou imprecisas na prática.
Outra questão apontada por Sônia Menezes são as grandes desigualdades sobre o controle e o uso dessa tecnologia entre o Norte e o Sul Global, aprofundando a pobreza digital. Ela lembrou que são empresas no EUA, na Europa e na China que mantêm o controle sobre toda a arquitetura de treinamento e processamento de gigantescos bancos de dados. Sendo a maior parte dos modelos proprietários, seus algoritmos são “caixas pretas” sob segredo industrial, o que significa perda de transparência e replicabilidade.
A professora destacou três eixos mais evidentes no debate: geração de textos, de imagens e de pareceres. Algumas associações e editoras acadêmicas permitem o uso de Inteligência Artificial para aperfeiçoamento de texto e melhoria da legibilidade, exigindo supervisão e revisão humana e sem gerar novas ideias ou substituir tarefas essenciais de autoria; outras visões aceitam o uso de IA para agregar, resumir, expandir, parafrasear e realizar tarefas básicas de texto. Ela acrescentou que algumas aplicações seriam para seções mais padronizadas, como métodos e descrição de resultados, além de gerar ou melhorar títulos, resumos e palavras-chave, mas enfatizou que não há consenso sobre esses usos, conforme escreveu Rafael Cardoso Sampaio nas “Recomendações iniciais para editores de periódicos científicos sobre o uso de Inteligência Artificial generativa” (2024).
Em relação à geração de imagens e vídeos, ainda citando Sampaio, Sônia explicou que há um forte consenso na proibição do uso de inteligência artificial generativa. Por exemplo, a Nature proíbe o uso de GenAIs para alterar imagens em manuscritos, exceto para ajustes básicos como brilho, contraste ou balanço de cores. O uso de imagens e vídeos gerados por GenAIs é permitido apenas se forem parte integral da pesquisa, como no desenho ou métodos de pesquisa. Este uso deve ser descrito na seção de métodos, incluindo detalhes sobre o modelo de GenAIs utilizado, para garantir a reprodutibilidade da pesquisa.
No sistema de pareceres, a pesquisadora explicou que alguns periódicos científicos de alto impacto usam inteligência artificial generativa para acelerar o processo de revisão por pares. Outros afirmam não usar e desaconselham seu uso por pareceristas. A editora Frontiers, por exemplo, defende o uso de IA para verificações iniciais dos manuscritos e distribuição de pareceres.
Há ainda preocupações com segurança dos dados das revistas e dos autores, já que sistemas como o ChatGPT utilizam o input dos usuários para treinamento, incluindo informações sensíveis e inéditas de pesquisa científica, o que poderia, segundo Sampaio, levar a vazamentos de dados.
Sônia Menezes trouxe algumas propostas de Sampaio de diretrizes para publicações. Sobre transparência, ela sugere que autores que utilizarem inteligência artificial generativa descrevam seu uso na carta de apresentação e no manuscrito para garantir transparência e confiança. Também sugere a inclusão no sistema de submissão uma condição que os autores precisam marcar, garantindo que não houve uso de IA ou justificando seu uso. Os autores devem detalhar o uso no manuscrito e na versão final, incluindo especificações como nome e versão da ferramenta, data e horário da consulta. Idealmente, os prompts usados e os logs das interações devem ser anexados ao trabalho, mas não há consenso sobre onde inseri-los, se no resumo, na introdução, na seção de métodos ou no fim do artigo.
As ferramentas de IA não podem atender aos requisitos de autoria, pois não podem assumir a responsabilidade pelo trabalho enviado. Como entidades não legais, não detectam a presença ou ausência de conflitos de interesse nem gerenciam contratos de direitos autorais e licença.
Sonia evocou também as recomendações de 2023 do Comitê de Ética em Publicação: os autores que usam ferramentas de IA na redação de um manuscrito, na produção de imagens ou elementos gráficos do artigo, na coleta e análise de dados devem ser transparentes ao divulgar nos Materiais e Métodos ou seção similar qual ferramenta de IA e como foi usada. “Os autores são totalmente responsáveis pelo conteúdo de seu manuscrito, mesmo aquelas partes produzidas por uma ferramenta de IA, e, portanto, são responsáveis por qualquer violação da ética de publicação”, citou.
Os autores também são responsáveis por todo o conteúdo submetido e aprovado para publicação, garantindo que esteja livre de vieses, plágio, fabricação ou falsificação, incluindo textos e imagens gerados por IA. Ela destacou ainda a importância de avaliar vieses e estereótipos perpetuados por modelos de linguagem de larga escala (LLMs) devido ao material de treinamento. “É dever dos autores verificar se os conteúdos gerados ou revisados por essas ferramentas estão livres de plágio”, frisou.
A professora enfatizou a responsabilidade dos autores pela integridade do conteúdo: se houver permissão de um periódico para uso de Inteligência Artificial Generativa, os autores devem seguir as regras colocadas e assumir total responsabilidade pelo conteúdo gerado, “revisando e editando cuidadosamente para evitar informações e citações incorretas, incompletas ou tendenciosas”.
“Diferentemente dos programas de detecção de plágio, eficazes e largamente utilizados por editores para detectar violações na produção de artigos, programas de detecção de AI ainda são altamente problemáticos, a ponto de serem desaconselhados por um bom número de entidades científicas, isso porque são imprecisos e podem cometer graves erros de interpretação”, escreveu a editora da Revista Brasileira de História no editorial Apontamentos sobre o uso de AI na produção e na comunicação de pesquisas (set/dez 2023)
Ela terminou a apresentação com os devidos créditos do uso de GenAI: OpenAI – ChatGPT 4.0 na tradução, auxílio na definição de conceito no campo de IA e na produção de resumos. Todas as imagens da apresentação, inclusive esta ao lado, reproduzida nesta reportagem, foram criadas por IA, pelo gerador de imagens Bing.
A mesa contou ainda com a participação de Marcos Eduardo de Sousa (Universidade Federal de Ouro Preto/Cefet-MG), Marcus Leonardo Bomfim Martins (revista História Hoje/Universidade Federal de Juiz de Fora) e, como mediadora, a editora-executiva da revista História, Ciências, Saúde – Manguinhos Roberta Cardoso Cerqueira. Estas falas serão tema de outra reportagem na próxima semana.
Leia mais:
Ciência aberta: além de produtos, processos
Editores de periódicos de ciências sociais e humanas contam suas experiências com ciência aberta no evento em comemoração aos 30 anos da revista História, Ciências, Saúde – Manguinhos.