מונח היום 27.04: Embeddings - איך AI "רואה" משמעות

אתמול הסברנו את RAG. היום נצלול לרכיב המרכזי שבונה אותו - Embeddings, ההפיכה של טקסט לוקטור של מספרים שמייצג משמעות.

בפוסט של אתמול פגשנו את RAG. הבטחנו לחזור לאחד המנגנונים המרכזיים שלו - Embeddings. זה המונח שגורם להמון אנשים להרים גבה, אבל ברגע שמבינים אותו, חצי מעולם ה-AI נפתח.

מה זה Embedding

בקצרה: Embedding הוא דרך להפוך טקסט (מילה, משפט, פסקה) לרשימה ארוכה של מספרים. הרשימה הזאת נקראת וקטור, והיא מייצגת את המשמעות של הטקסט בצורה שהמכונה יכולה להשוות. במקום ש-AI יחפש "האם המשפט הזה דומה לזה?" באופן מילולי, הוא משווה וקטורים - ואם הם קרובים מתמטית, הטקסטים דומים במשמעות.

הדוגמה הפשוטה: 3 משפטים, 3 וקטורים

נניח שיש לנו שלושה משפטים: "חתול ישן על השטיח", "כלב נח על השטיח", "כלכלת ישראל גדלה ב-2026". האנושית - שני הראשונים דומים, השלישי שונה. ה-AI רואה את זה כך:

  • "חתול ישן על השטיח" → [0.21, -0.34, 0.78, ...]
  • "כלב נח על השטיח" → [0.18, -0.31, 0.81, ...]
  • "כלכלת ישראל גדלה ב-2026" → [0.91, 0.12, -0.05, ...]

שני הוקטורים הראשונים קרובים מתמטית - מרחקם הוא 0.05. השלישי רחוק - מרחקו 0.92. כך AI "מבין" שהשניים הראשונים מדברים על אותו תחום, גם בלי שמישהו אמר לו את זה.

למה זה חשוב לכל מי שעובד עם AI

שלושה שימושים מעשיים:

  1. חיפוש סמנטי. במקום חיפוש מילה במסמכים, חיפוש לפי משמעות. שאלה "איך מתמודדים עם לחץ במשרד" תמצא גם תוכן שכותב "סטרס בעבודה" - שני ביטויים שונים, אותה משמעות.
  2. RAG. כפי שראינו אתמול, RAG מחפש מסמכים רלוונטיים לפני שהוא עונה. החיפוש הזה מבוסס על Embeddings.
  3. קלאסיפיקציה. מיון אוטומטי של תוכן לקטגוריות לפי דמיון לדוגמאות מתויגות.

הטיפ הפרקטי

אם אתם בונים מערכת עם תוכן פנימי, השלב הראשון תמיד יהיה - "להמיר את כל המסמכים ל-Embeddings ולשמור ב-vector database". אחרי שזה קיים, אפשר לעשות איתו חיפוש, RAG, או סיווג. זה שלב חד פעמי. מבחינת זמן ועלות - לרוב מדובר בכמה דקות וכמה דולרים בודדים גם לאלפי מסמכים.

מחר

נכיר vector database - איפה Embeddings שוכנים, איך מחפשים אותם, ולמה Pinecone, Weaviate ו-Qdrant הם השמות שאתם שומעים בכל הקשר של AI מתקדם.

מילון יומי: RAG (Retrieval-Augmented Generation) בעברית פשוטה