Alucinação

No contexto da IA, uma alucinação refere-se a um modelo que gera saídas que parecem plausíveis, mas são factualmente incorretas ou insensatas, muitas vezes apresentadas com alta confiança.

Hallucinations são um desafio significativo no desenvolvimento e implantação de modelos de IA, particularmente modelos de linguagem grandes (LLMs). Elas ocorrem quando um modelo gera informações que não estão fundamentadas em seus dados de treinamento ou no contexto fornecido. Isso pode se manifestar como fatos fabricados, informações distorcidas ou resultados que são internamente inconsistentes. A propensão à hallucination varia dependendo da arquitetura do modelo, dos dados de treinamento e da tarefa específica que ele está realizando.

Esses erros podem variar de pequenas imprecisões a detalhes completamente fabricados. A gravidade das hallucinations pode ter sérias consequências, especialmente em aplicações onde a precisão é crítica, como diagnóstico médico, pesquisa jurídica ou análise financeira. Os pesquisadores estão trabalhando ativamente em técnicas para mitigar hallucinations, incluindo métodos de treinamento aprimorados, melhor curadoria de dados e mecanismos para verificação e checagem de fatos.

        graph LR
  Center["Alucinação"]:::main
  Pre_physics["physics"]:::pre --> Center
  click Pre_physics "/terms/physics"
  Rel_hallucination_ai["hallucination-ai"]:::related -.-> Center
  click Rel_hallucination_ai "/terms/hallucination-ai"
  Rel_artificial_intelligence["artificial-intelligence"]:::related -.-> Center
  click Rel_artificial_intelligence "/terms/artificial-intelligence"
  Rel_inference["inference"]:::related -.-> Center
  click Rel_inference "/terms/inference"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Teste de conhecimento

1 / 3

🧒 Explique como se eu tivesse 5 anos

Imagine um papagaio superinteligente que sabe falar sobre qualquer coisa, mas às vezes inventa fatos porque está apenas repetindo padrões que ouviu, sem realmente entendê-los.

🤓 Expert Deep Dive

As alucinações em IA generativa derivam das limitações inerentes aos modelos de geração de sequências probabilísticas. Estes modelos otimizam para a probabilidade, não para a veracidade. Quando confrontados com prompts ambíguos, dados fora da distribuição ou lacunas de conhecimento, podem interpolar ou extrapolar com base em relações estatísticas aprendidas, levando a outputs plausíveis, mas erróneos. Arquiteturalmente, os LLMs baseados em transformadores, com os seus mecanismos de atenção, podem por vezes dar demasiada atenção a correlações espúrias nos dados de treino. As vulnerabilidades incluem prompts adversariais concebidos para desencadear alucinações específicas ou a exploração de pontuações de confiança do modelo, que são frequentemente mal calibradas. Técnicas como RAG visam mitigar isto condicionando a geração em documentos factuais recuperados, mas a integração e a fidelidade da informação recuperada permanecem desafios. RLHF pode ajudar a alinhar o comportamento do modelo com as preferências humanas por precisão, mas definir e impor consistentemente a "verdade" em domínios diversos é complexo.

🔗 Termos relacionados

Pré-requisitos:

📚 Fontes