halüsinasyon

AI bağlamında, bir halüsinasyon, gerçekçi görünen ama gerçekte yanlış veya anlamsız görünen, genellikle yüksek güvenle sunulan çıkışları üreten bir modeldir.

Halüsinasyonlar, özellikle büyük dil modelleri (LLM'ler) olmak üzere, yapay zeka modellerinin geliştirilmesi ve dağıtılmasında önemli bir zorluktur. Bir model, eğitim verilerinde veya sağlanan bağlamda temellendirilmeyen bilgiler ürettiğinde ortaya çıkarlar. Bu, uydurulmuş gerçekler, çarpıtılmış bilgiler veya dahili olarak tutarsız çıktılar şeklinde kendini gösterebilir. Halüsinasyon eğilimi, modelin mimarisine, eğitim verilerine ve gerçekleştirdiği belirli göreve bağlı olarak değişir.

Bu hatalar, küçük yanlışlıklardan tamamen uydurulmuş detaylara kadar değişebilir. Halüsinasyonların ciddiyeti, özellikle tıbbi teşhis, yasal araştırma veya finansal analiz gibi doğrulukun kritik olduğu uygulamalarda ciddi sonuçlara yol açabilir. Araştırmacılar, iyileştirilmiş eğitim yöntemleri, daha iyi veri kürasyonu ve gerçek kontrolü ve doğrulama mekanizmaları dahil olmak üzere halüsinasyonları azaltmak için aktif olarak çalışıyorlar.

        graph LR
  Center["halüsinasyon"]:::main
  Pre_computer_science["computer-science"]:::pre --> Center
  click Pre_computer_science "/terms/computer-science"
  Rel_hallucination["hallucination"]:::related -.-> Center
  click Rel_hallucination "/terms/hallucination"
  Rel_artificial_intelligence["artificial-intelligence"]:::related -.-> Center
  click Rel_artificial_intelligence "/terms/artificial-intelligence"
  Rel_large_language_model["large-language-model"]:::related -.-> Center
  click Rel_large_language_model "/terms/large-language-model"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Bilgi testi

1 / 3

🧒 5 yaşındaki gibi açıkla

Yapay zeka halüsinasyonları, bir robotun size doğruymuş gibi gelen ama aslında uydurma veya yanlış bir şeyi kendinden emin bir şekilde söylemesi gibidir. Mesela, duyduğu hikayeleri karıştırdığı için köpeklerin uçabildiğini söylemesi gibi.

🤓 Expert Deep Dive

Yapay zeka halüsinasyonları, modelin öğrendiği içsel temsil ile nesnel gerçeklik veya olgusal doğruluk arasındaki tutarsızlıktan kaynaklanan, üretken modellerde bir hata modunu temsil eder. Mimari olarak, yalnızca bir sonraki kelime tahmini üzerinde eğitilmiş Büyük Dil Modelleri (LLM'ler), eğitim verilerindeki yapay korelasyonlara aşırı uyum sağlayabilir veya bilgi sınırlarının ötesine geçebilir. Bu durum, makul ancak yanlış olgusal iddialar üretme, var olmayan varlıklar veya olaylar icat etme veya bilgiyi yanlış atfetme şeklinde ortaya çıkabilir. Halüsinasyonları azaltma teknikleri şunları içerir: 1) Gürültüyü ve yanlılığı azaltmak için veri kalitesini ve çeşitliliğini iyileştirme. 2) Modelin yanıt üretmeden önce harici bir bilgi tabanından ilgili bilgileri aldığı ve böylece çıktıyı temellendirdiği geri çağırma destekli üretimi (RAG) kullanma. 3) Üretilen ifadelerin güvenilirliğini tahmin etmek için belirsizlik ölçüm yöntemlerini kullanma. 4) Özellikle olgusal yanlışlıkları cezalandıran insan geri bildirimleriyle (RLHF) ince ayar yapma. 5) Üretim sürecini mantıksal kurallar veya bilgi grafikleriyle sınırlama. Zorluk, halüsinasyon azaltımını modelin akıcılığını, yaratıcılığını ve yeni veya yetersiz tanımlanmış istemleri işleme yeteneğini korumakla dengelemektir.

🔗 İlgili terimler

Ön koşullar:

📚 Kaynaklar