Alucinações nas IA’s generativas

A alucinação das inteligências artificiais generativas é um fenômeno que ocorre quando esses sistemas produzem informações que parecem plausíveis, mas são falsas ou incorretas. Isso acontece porque os modelos de IA são treinados em grandes volumes de dados e aprendem a reconhecer padrões e gerar respostas com base nesses padrões. No entanto, eles não têm uma compreensão verdadeira do mundo como os seres humanos, e podem gerar informações que não correspondem à realidade.

Como as alucinações ocorrem

  • Compreensão limitada: As IAs não possuem consciência ou entendimento real. Elas operam com base em padrões e estatísticas, o que pode levar a falhas quando confrontadas com informações que não estão bem representadas nos dados de treinamento.
  • Dados de treinamento incompletos ou imprecisos: Se os dados usados para treinar o modelo contêm erros ou são incompletos, o modelo pode acabar gerando respostas que refletem essas falhas.
  • Interpretação de contexto: As IAs podem ter dificuldades em interpretar corretamente o contexto de uma pergunta ou situação, levando a respostas que, embora gramaticalmente corretas, são factualmente incorretas.

Exemplos de alucinações

  • Fatos imaginários: O modelo pode inventar informações sobre eventos históricos que nunca aconteceram.
  • Citações falsas: Pode gerar citações atribuídas a indivíduos que nunca as disseram.
  • Detalhes técnicos incorretos: Em contextos técnicos, pode fornecer especificações ou dados que são completamente fabricados.

Implicações e desafios

  • Confiabilidade: A alucinação pode minar a confiança do usuário na tecnologia, especialmente em áreas críticas como saúde, finanças e direito.
  • Desinformação: Pode contribuir para a disseminação de desinformação, se não monitorada adequadamente.
  • Desafios técnicos: Desenvolvedores e pesquisadores estão constantemente buscando maneiras de mitigar essas alucinações, através de melhorias nos algoritmos e na qualidade dos dados de treinamento.

Como mitigar alucinações

  • Verificação de Fatos: Implementar sistemas de verificação para confirmar a precisão das informações geradas.
  • Treinamento com Dados Confiáveis: Melhorar a qualidade dos dados de treinamento, garantindo que sejam precisos e abrangentes.
  • Feedback Humano: Incorporar feedback humano no processo de desenvolvimento para identificar e corrigir erros de maneira contínua.

Este fenômeno é um dos grandes desafios na evolução das inteligências artificiais, e compreender suas causas e impactos é essencial para seu desenvolvimento responsável e eficaz.

Modelos com menor taxa de alucinação (1,3%)

  • AIGLM-4-9B-Chat
  • Gemini 2.0-Flash-Exp

 

  • Outros modelos bem avaliados da OpenAI:

  • OpenAI o1-mini (1,4%)
  • GPT-4o (1,5%)
  • GPT-4o-mini e GPT-4-Turbo (1,7%)
  • GPT-4 (1,8%)
  • GPT-3.5-Turbo (1,9%)

Modelos com taxas mais altas:

  • deepseek-v2.5 (2,4%)
  • Microsoft Orca-2-13b e Phi-3.5-MoE-instruct (2,5%)
  • Intel Neural-Chat-7B-v3-3 (2,6%)
  • Alibaba Cloud Qwen2.5-7B-Instruct (2,8%)
  • AI21labs Jamba-1.5-Mini (2,9%)
  • Snowflake Arctic-Instruct (3,0%)

 

Se esse tema te interessa, contrate uma capacitação para sua empresa sobre a adoção da IA: Estratégias, prerrogativas, letramento, tendências e usos no mercado, e muito mais.

 

Faça contato: roberto@robertocarvalho.net

 

 

Qualquer informação adicional, por favor insira aqui!

Deixe um comentário