Ембеддінги (Векторні представлення)

Векторні представлення даних, що фіксують їх семантичне значення.

Ембеддінги дозволяють комп'ютеру 'обчислювати' значення слів. Якщо два слова мають схоже значення, їхні вектори будуть майже паралельними або знаходитимуться поруч. Це дозволяє створювати системи пошуку за змістом, а не просто за ключовими словами.

        graph LR
  Center["Ембеддінги (Векторні представлення)"]:::main
  Pre_linear_algebra["linear-algebra"]:::pre --> Center
  click Pre_linear_algebra "/terms/linear-algebra"
  Pre_neural_network["neural-network"]:::pre --> Center
  click Pre_neural_network "/terms/neural-network"
  Center --> Child_vector_database["vector-database"]:::child
  click Child_vector_database "/terms/vector-database"
  Rel_semantic_search["semantic-search"]:::related -.-> Center
  click Rel_semantic_search "/terms/semantic-search"
  Rel_decryption["decryption"]:::related -.-> Center
  click Rel_decryption "/terms/decryption"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧒 Простими словами

Уявіть гігантську карту, де кожне слово має GPS-координати. Слова зі схожим значенням, як-от «собака» і «цуценя», живуть в одному районі. «Кіт» живе поруч, але «Машина» живе в зовсім іншому місті. Ці GPS-координати і є ембеддінгами.

🤓 Expert Deep Dive

Ембеддінги генеруються нейромережами (Word2Vec, BERT). Вони відображають багатовимірні розріджені дані у низьковимірні щільні вектори. Відстань зазвичай вимірюється за допомогою косинусної подібності (Cosine Similarity).

❓ Часті питання

What is the difference between an embedding and a vector?

A vector is just a list of numbers. An embedding is a specific type of vector that is learned by an AI to represent the meaning of an object.

How are embeddings used in RAG?

In RAG, your documents are converted into embeddings and stored in a vector database. When a user asks a question, it is also converted into an embedding, and the most similar documents are retrieved to provide context to the AI.

🔗 Пов'язані терміни

Попередні знання:
Щоб дізнатися більше:

📚 Джерела