“A diferença entre o remédio e o veneno é a dose!”, afirmou Paracelso (1493–1541), considerado o pai da toxicologia. Esse provérbio, de origem científica, é popularmente usado nas mais diversas situações do cotidiano, transmitindo a ideia de que algo benéfico pode tornar-se danoso, se utilizado de modo exagerado. Assim também podemos aplicá-lo no contexto da adoção de assistentes de inteligência artificial (IA) generativa, em especial os chatbots, como ChatGPT, Gemini e Copilot, por estudantes universitários, visto que, a princípio, em que pesem seus legítimos e inegáveis benefícios, se usados indiscriminadamente, acredita-se que podem gerar importantes prejuízos cognitivos.
Sabe-se que, na educação superior, os discentes são levados, de forma imperativa, à produção de diversos textos nos quais a complexidade se distancia, largamente, daquela existente em etapas educacionais anteriores. Junta-se à necessidade desse nível elevado de articulação o fato de que muitos estudantes de graduação dividem suas horas do dia entre atividades profissionais e a formação acadêmica. Esse conjunto de razões já bastaria para justificar a intensa busca pela IA para a confecção de textos acadêmicos. Mas qual é o limite entre ser uma ferramenta útil ou prejudicial? Parece-nos que a resposta é simples: o excesso! Ou seja, ao exagerarmos na dose, o remédio pode tornar-se veneno.
Um estudo publicado neste mês e conduzido pelo MIT Media Lab, um dos centros de pesquisa interdisciplinar do Massachusetts Institute of Technology (MIT), focado em tecnologia, inovação e comportamento humano, mostrou que o uso de ferramentas de IA pode reduzir a atividade cerebral associada ao pensamento crítico e ao raciocínio complexo durante tarefas de escrita. A questão é que, durante os processos de produção, a princípio, tendemos a não perceber que nossas funções cognitivas estão acomodando-se em uma zona de conforto na qual não há necessidade de grandes esforços para que boas produções sejam elaboradas. Afinal, ao serem alimentados com alguns bons comandos, chatbots são altamente capazes de aplicar o treinamento prévio a que foram submetidos e de oferecer aquilo de que precisamos — prontamente. Não desejamos, na reflexão que propomos, destacar a questão de as produções serem ou não autênticas, o que inevitavelmente precisa ser considerado. Nosso objetivo é focar na passividade intelectual eventualmente gerada pelo cognitive offloading, descarregamento cognitivo, que nada mais é, simplesmente, do que a transferência de tarefas mentais para ferramentas externas.
Há muito discute-se a possibilidade de a IA assumir o controle da humanidade, algo semelhante ao proposto pela trilogia hollywoodiana Matrix, estrelada por Keanu Reeves, que marcou a virada do milênio, o que parece extremamente improvável. Por outro lado, podemos incorrer no erro de delegar à tecnologia, voluntariamente e de forma incondicional, tarefas intelectuais simples ou complexas sem passá-las pela verificação e adequação humanas, pelo crivo da razão. Isso, a longo prazo, permitiria que a tecnologia que estrutura as ferramentas de IA estivesse, de algum modo, no controle. Tal situação corresponderia à estagnação na produção intelectual, posto que as IAs generativas produzem com base no que já existe, não sendo capazes de criar algo, voluntariamente.
Em síntese, entende-se que os modelos de IA são notavelmente úteis, que têm uma impressionante capacidade de colaborar no desenvolvimento acadêmico e que, em virtude desses e de outros aspectos, vieram para ficar. Não obstante, não devemos nos deslumbrar e tampouco entregar a eles nosso maior atributo, aquilo que nos difere das demais espécies: a capacidade de criar e razonar. Estudantes universitários que fazem uso de recursos baseados em IA de forma equilibrada e responsável não apenas enriquecem as ciências com seus conteúdos autênticos, mas também se mantêm intelectualmente ativos e saudáveis, provando que é possível encontrar a dose certa para obter resultados favoráveis, conforme nos afirmou Paracelso por volta de cinco séculos atrás.
Prof. Esp. Edilson Borghi
(Docente da Fatec Jales) - Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.