A crescente sofisticação dos modelos de inteligência artificial (IA), especialmente em português, e a facilidade de refinar os resultados gerados tornam quase impossível distinguir textos escritos por humanos de textos produzidos por máquinas. Essa dificuldade é um desafio crescente para educadores, como ilustra a experiência do professor Adriano Machado, 47 anos, do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG).
No dia 12 de junho, Dia dos Namorados, Machado decidiu presentear sua esposa, Maira Pereira, com uma joia e uma carta de amor. Ao se deparar com a dificuldade de expressar seus sentimentos com a poesia desejada, recorreu ao ChatGPT. Ele inseriu suas ideias na plataforma, refinando o resultado por meio de sucessivas edições até alcançar o tom romântico pretendido, incluindo até mesmo uma citação de um autor predileto. A carta, impressa e entregue, foi elogiada por Maira, que, no entanto, notou algo incomum na escrita. Machado confessou o auxílio da IA, e Maira admitiu ter percebido a diferença, comentando: “Me conhecendo, ela sabia. Ou eu tinha estudado e me tornado mais romântico e poético do dia pra noite, ou tinha usado alguma ferramenta.”
Este episódio pessoal exemplifica o dilema enfrentado por educadores na identificação de conteúdo gerado por IA. Embora textos produzidos por IA genérica geralmente apresentem características como falta de criatividade, frases óbvias, ausência de erros gramaticais e estruturas repetitivas, a evolução dos modelos torna a detecção cada vez mais complexa. Diversos softwares prometem identificar textos gerados por IA com alta precisão, mas, na prática, a certeza é relativa, como afirma Machado: “É possível detectar indícios do uso, mas com uma certeza relativa, não absoluta”.
Para o professor, o foco deve ser o aprendizado dos alunos, não a detecção da IA. “Se eu tenho conhecimento do que eu preciso e souber usar a IA a meu favor, isso pode poupar muito tempo. Mas a maior preocupação hoje é com os alunos, porque tenho de ensiná-los a avançar na linha de conhecimento.”
O processo de “refinamento” das respostas da IA, como demonstrado na carta de Machado, dificulta ainda mais a detecção. Um teste realizado pela BBC News Brasil com uma ferramenta popular de detecção de IA, utilizando três textos gerados pela mesma, confirmou essa dificuldade. Um texto genérico sobre o impacto da IA na educação foi facilmente identificado, enquanto uma versão revisada, solicitada com a instrução de escrever “como um humano, de forma menos robótica”, apresentou apenas 30% de probabilidade de ter sido gerado por IA.
A professora Raquel Freitag, de sociolinguística da Universidade Federal do Sergipe (UFS), reforça a complexidade da situação: “Pelo bem ou pelo mal, é muito difícil hoje alguém dizer se é ou não (gerado por IA) se não tiver um parâmetro anterior”. Ela destaca a constante evolução dos modelos de linguagem, treinados com um volume crescente de dados em português, o que os torna cada vez mais naturais e difíceis de distinguir de textos humanos. Para Freitag, a questão não é o uso da IA, mas a adaptação da educação a essa nova realidade: “A questão não é mais usar ou não usar. Todo mundo está usando. E sempre esteve usando. O corretor ortográfico do Word, por exemplo, é um tipo de IA, o que não significa que a gente não deva aprender sobre ortografia.”
Leonardo Tomazeli Duarte, coordenador de um centro de referência de IA na Faculdade de Ciências Aplicadas da Unicamp, corrobora essa visão, ressaltando o avanço dos modelos em questões de estilo de escrita: “Eu já fiz uns testes tentando fazer com que eles usem o meu estilo. E usam muito bem. Eu mesmo tenho dificuldade de descobrir se fui eu que escrevi o texto ou não.”
A discussão sobre a detecção de IA também se estendeu ao uso de travessões, tema que gerou debates nas redes sociais e na mídia internacional, incluindo o The Washington Post. Embora alguns indiquem o uso mais frequente de travessões em textos gerados por IA, como observado pela professora Adriana Pagano da Faculdade de Letras da UFMG, a presença desse ou de qualquer outro elemento isoladamente não é suficiente para atestar a origem do texto.
Rodrigo Nogueira, fundador e CEO da Maritaca AI, empresa que desenvolve IA em português, acredita que a distinção entre texto humano e artificial tende a se dissolver, considerando que a IA já está integrada em nossas formas de comunicação.
Diversas universidades, incluindo a UFMG, que instalou a Comissão Permanente de IA em 2023, estão debatendo diretrizes para o uso ético dessas ferramentas. A comissão recomenda transparência no uso de IA em trabalhos acadêmicos, debates em sala de aula sobre os impactos da tecnologia e a não utilização de sistemas de detecção de IA, devido à sua baixa acurácia e implicações de privacidade.
O professor Duarte da Unicamp prevê o desafio de educar a “geração LLM”, que cresceu com a IA, integrando-a naturalmente em seus processos de aprendizado. Ele defende a incorporação da IA ao currículo, desmistificando sua utilização e ensinando seus limites. Um estudo da Universidade da Pensilvânia mostrou que, enquanto o uso do ChatGPT melhorou o desempenho em exercícios de matemática, ele prejudicou o aprendizado de conceitos fundamentais quando usado para fornecer respostas completas, em vez de apenas dicas.
O Plano Brasileiro de Inteligência Artificial (2024-2028) visa o desenvolvimento de modelos de linguagem em português, com dados nacionais que reflitam a diversidade linguística e cultural do país, buscando a soberania tecnológica e o conhecimento contextualizado. Nogueira destaca a importância de modelos de IA treinados com dados brasileiros para atender às necessidades específicas do país e evitar a dependência de tecnologias estrangeiras.
Fonte da Matéria: g1.globo.com