A alucinação das inteligências artificiais generativas é um fenômeno que ocorre quando esses sistemas produzem informações que parecem plausíveis, mas são falsas ou incorretas. Isso acontece porque os modelos de IA são treinados em grandes volumes de dados e aprendem a reconhecer padrões e gerar respostas com base nesses padrões. No entanto, eles não têm uma compreensão verdadeira do mundo como os seres humanos, e podem gerar informações que não correspondem à realidade.
Como as alucinações ocorrem
- Compreensão limitada: As IAs não possuem consciência ou entendimento real. Elas operam com base em padrões e estatísticas, o que pode levar a falhas quando confrontadas com informações que não estão bem representadas nos dados de treinamento.
- Dados de treinamento incompletos ou imprecisos: Se os dados usados para treinar o modelo contêm erros ou são incompletos, o modelo pode acabar gerando respostas que refletem essas falhas.
- Interpretação de contexto: As IAs podem ter dificuldades em interpretar corretamente o contexto de uma pergunta ou situação, levando a respostas que, embora gramaticalmente corretas, são factualmente incorretas.
Exemplos de alucinações
- Fatos imaginários: O modelo pode inventar informações sobre eventos históricos que nunca aconteceram.
- Citações falsas: Pode gerar citações atribuídas a indivíduos que nunca as disseram.
- Detalhes técnicos incorretos: Em contextos técnicos, pode fornecer especificações ou dados que são completamente fabricados.
Implicações e desafios
- Confiabilidade: A alucinação pode minar a confiança do usuário na tecnologia, especialmente em áreas críticas como saúde, finanças e direito.
- Desinformação: Pode contribuir para a disseminação de desinformação, se não monitorada adequadamente.
- Desafios técnicos: Desenvolvedores e pesquisadores estão constantemente buscando maneiras de mitigar essas alucinações, através de melhorias nos algoritmos e na qualidade dos dados de treinamento.
Como mitigar alucinações
- Verificação de Fatos: Implementar sistemas de verificação para confirmar a precisão das informações geradas.
- Treinamento com Dados Confiáveis: Melhorar a qualidade dos dados de treinamento, garantindo que sejam precisos e abrangentes.
- Feedback Humano: Incorporar feedback humano no processo de desenvolvimento para identificar e corrigir erros de maneira contínua.
Este fenômeno é um dos grandes desafios na evolução das inteligências artificiais, e compreender suas causas e impactos é essencial para seu desenvolvimento responsável e eficaz.
Modelos com menor taxa de alucinação (1,3%)
- AIGLM-4-9B-Chat
- Gemini 2.0-Flash-Exp
-
Outros modelos bem avaliados da OpenAI:
- OpenAI o1-mini (1,4%)
- GPT-4o (1,5%)
- GPT-4o-mini e GPT-4-Turbo (1,7%)
- GPT-4 (1,8%)
- GPT-3.5-Turbo (1,9%)
Modelos com taxas mais altas:
- deepseek-v2.5 (2,4%)
- Microsoft Orca-2-13b e Phi-3.5-MoE-instruct (2,5%)
- Intel Neural-Chat-7B-v3-3 (2,6%)
- Alibaba Cloud Qwen2.5-7B-Instruct (2,8%)
- AI21labs Jamba-1.5-Mini (2,9%)
- Snowflake Arctic-Instruct (3,0%)
Se esse tema te interessa, contrate uma capacitação para sua empresa sobre a adoção da IA: Estratégias, prerrogativas, letramento, tendências e usos no mercado, e muito mais.
Faça contato: roberto@robertocarvalho.net