halüsinasyon

AI bağlamında, bir halüsinasyon, gerçekçi görünen ama gerçekte yanlış veya anlamsız görünen, genellikle yüksek güvenle sunulan çıkışları üreten bir modeldir.

Halüsinasyonlar, özellikle büyük dil modelleri (LLM'ler) olmak üzere, yapay zeka modellerinin geliştirilmesi ve dağıtılmasında önemli bir zorluktur. Bir model, eğitim verilerinde veya sağlanan bağlamda temellendirilmeyen bilgiler ürettiğinde ortaya çıkarlar. Bu, uydurulmuş gerçekler, çarpıtılmış bilgiler veya dahili olarak tutarsız çıktılar şeklinde kendini gösterebilir. Halüsinasyon eğilimi, modelin mimarisine, eğitim verilerine ve gerçekleştirdiği belirli göreve bağlı olarak değişir.

Bu hatalar, küçük yanlışlıklardan tamamen uydurulmuş detaylara kadar değişebilir. Halüsinasyonların ciddiyeti, özellikle tıbbi teşhis, yasal araştırma veya finansal analiz gibi doğrulukun kritik olduğu uygulamalarda ciddi sonuçlara yol açabilir. Araştırmacılar, iyileştirilmiş eğitim yöntemleri, daha iyi veri kürasyonu ve gerçek kontrolü ve doğrulama mekanizmaları dahil olmak üzere halüsinasyonları azaltmak için aktif olarak çalışıyorlar.

        graph LR
  Center["halüsinasyon"]:::main
  Pre_physics["physics"]:::pre --> Center
  click Pre_physics "/terms/physics"
  Rel_hallucination_ai["hallucination-ai"]:::related -.-> Center
  click Rel_hallucination_ai "/terms/hallucination-ai"
  Rel_artificial_intelligence["artificial-intelligence"]:::related -.-> Center
  click Rel_artificial_intelligence "/terms/artificial-intelligence"
  Rel_inference["inference"]:::related -.-> Center
  click Rel_inference "/terms/inference"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Bilgi testi

1 / 3

🧒 5 yaşındaki gibi açıkla

Şöyle düşün: Süper zeki bir papağan var, her konuda konuşabiliyor ama bazen duyduğu kalıpları tekrarladığı için, aslında anlamadan uydurma bilgiler veriyor.

🤓 Expert Deep Dive

Üretken yapay zekadaki halüsinasyonlar, olasılıksal dizi üretim modellerinin doğasında bulunan sınırlamalardan kaynaklanır. Bu modeller doğruluk yerine olasılığı optimize eder. Belirsiz komutlar, dağılım dışı veriler veya bilgi boşluklarıyla karşılaştıklarında, öğrenilmiş istatistiksel ilişkilere dayanarak enterpolasyon veya ekstrapolasyon yapabilirler, bu da kulağa makul gelen ancak hatalı çıktılara yol açar. Mimari olarak, dikkat mekanizmalarına sahip transformatör tabanlı LLM'ler, eğitim verilerindeki yanıltıcı korelasyonlara bazen aşırı odaklanabilir. Güvenlik açıkları arasında belirli halüsinasyonları tetiklemek için tasarlanmış düşmanca komutlar veya genellikle iyi kalibre edilmemiş model güven puanlarının istismar edilmesi yer alır. RAG gibi teknikler, üretimi alınan gerçek belgelere koşullandırarak bunu azaltmayı amaçlar, ancak alınan bilgilerin entegrasyonu ve doğruluğu zorluk olmaya devam etmektedir. RLHF, model davranışını doğruluk konusundaki insan tercihleriyle uyumlu hale getirmeye yardımcı olabilir, ancak farklı alanlarda 'doğruluğu' tanımlamak ve tutarlı bir şekilde uygulamak karmaşıktır.

🔗 İlgili terimler

Ön koşullar:

📚 Kaynaklar