Alucinação

No contexto da IA, uma alucinação refere-se a um modelo que gera saídas que parecem plausíveis, mas são factualmente incorretas ou insensatas, muitas vezes apresentadas com alta confiança.

Hallucinations são um desafio significativo no desenvolvimento e implantação de modelos de IA, particularmente modelos de linguagem grandes (LLMs). Elas ocorrem quando um modelo gera informações que não estão fundamentadas em seus dados de treinamento ou no contexto fornecido. Isso pode se manifestar como fatos fabricados, informações distorcidas ou resultados que são internamente inconsistentes. A propensão à hallucination varia dependendo da arquitetura do modelo, dos dados de treinamento e da tarefa específica que ele está realizando.

Esses erros podem variar de pequenas imprecisões a detalhes completamente fabricados. A gravidade das hallucinations pode ter sérias consequências, especialmente em aplicações onde a precisão é crítica, como diagnóstico médico, pesquisa jurídica ou análise financeira. Os pesquisadores estão trabalhando ativamente em técnicas para mitigar hallucinations, incluindo métodos de treinamento aprimorados, melhor curadoria de dados e mecanismos para verificação e checagem de fatos.

        graph LR
  Center["Alucinação"]:::main
  Pre_computer_science["computer-science"]:::pre --> Center
  click Pre_computer_science "/terms/computer-science"
  Rel_hallucination["hallucination"]:::related -.-> Center
  click Rel_hallucination "/terms/hallucination"
  Rel_artificial_intelligence["artificial-intelligence"]:::related -.-> Center
  click Rel_artificial_intelligence "/terms/artificial-intelligence"
  Rel_large_language_model["large-language-model"]:::related -.-> Center
  click Rel_large_language_model "/terms/large-language-model"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Teste de conhecimento

1 / 3

🧒 Explique como se eu tivesse 5 anos

Alucinações de IA são como quando um robô te diz algo com confiança que parece verdade, mas na verdade é inventado ou errado, como dizer que cachorros podem voar porque ele misturou histórias que ouviu.

🤓 Expert Deep Dive

As alucinações em IA representam um modo de falha em modelos generativos, decorrentes da discrepância entre a representação interna aprendida pelo modelo e a realidade objetiva ou a precisão factual. Arquiteturalmente, LLMs treinados exclusivamente na previsão do próximo token podem sofrer overfitting a correlações espúrias nos dados de treinamento ou extrapolar para além de seus limites de conhecimento. Isso pode se manifestar na geração de afirmações factuais plausíveis, mas falsas, na invenção de entidades ou eventos inexistentes, ou na atribuição incorreta de informações. Técnicas para mitigar alucinações incluem: 1) Melhorar a qualidade e diversidade dos dados para reduzir ruído e viés. 2) Empregar geração aumentada por recuperação (RAG), onde o modelo recupera informações relevantes de uma base de conhecimento externa antes de gerar uma resposta, ancorando assim a saída. 3) Utilizar métodos de quantificação de incerteza para estimar a confiança das declarações geradas. 4) Ajuste fino com feedback humano (RLHF) penalizando especificamente imprecisões factuais. 5) Restringir o processo de geração com regras lógicas ou grafos de conhecimento. O desafio reside em equilibrar a redução de alucinações com a manutenção da fluência, criatividade e capacidade do modelo de lidar com prompts novos ou subespecificados.

🔗 Termos relacionados

Pré-requisitos:

📚 Fontes