O estudo da Universidade de Oxford revela que as alucinações de inteligências artificiais (IA) generativas apresentam uma séria ameaça para a ciência. O artigo destaca a ingenuidade dos usuários ao interpretarem as informações fornecidas por esses modelos, alertando para potenciais problemas no futuro.
O termo “alucinação” refere-se ao momento em que as IAs geram informações imprecisas ou totalmente enganosas. Isso pode ocorrer ao solicitar informações profundas de uma base de dados extensa, mas também em situações mais comuns. A principal preocupação reside na propensão dos usuários em antropomorfizar a tecnologia, confiando nela como uma fonte de informação similar à humana, conforme apontou o professor Brent Mittelstadt, coautor do estudo.
As alucinações são mais prováveis de ocorrer devido à apresentação coesa, acessível e semelhante ao discurso humano dos chatbots. Além disso, os modelos tendem a transmitir informações com confiança, mesmo quando não são precisas.
Esse cenário representa uma ameaça para a divulgação científica e a educação, pois as IAs generativas podem disseminar informações imprecisas de forma acessível a qualquer pessoa. A comunidade científica também enfrenta pressões para utilizar essas IAs como tradutores de conteúdo. Os professores de Oxford enfatizam a importância de utilizar essas ferramentas com responsabilidade, cientes de suas limitações, para preservar a integridade da divulgação científica e do processo educacional.
#1 on 2023-nov-27 seg 11:07+-10800

