בפוסט של אתמול פגשנו את RAG. הבטחנו לחזור לאחד המנגנונים המרכזיים שלו - Embeddings. זה המונח שגורם להמון אנשים להרים גבה, אבל ברגע שמבינים אותו, חצי מעולם ה-AI נפתח.
מה זה Embedding
בקצרה: Embedding הוא דרך להפוך טקסט (מילה, משפט, פסקה) לרשימה ארוכה של מספרים. הרשימה הזאת נקראת וקטור, והיא מייצגת את המשמעות של הטקסט בצורה שהמכונה יכולה להשוות. במקום ש-AI יחפש "האם המשפט הזה דומה לזה?" באופן מילולי, הוא משווה וקטורים - ואם הם קרובים מתמטית, הטקסטים דומים במשמעות.
הדוגמה הפשוטה: 3 משפטים, 3 וקטורים
נניח שיש לנו שלושה משפטים: "חתול ישן על השטיח", "כלב נח על השטיח", "כלכלת ישראל גדלה ב-2026". האנושית - שני הראשונים דומים, השלישי שונה. ה-AI רואה את זה כך:
- "חתול ישן על השטיח" → [0.21, -0.34, 0.78, ...]
- "כלב נח על השטיח" → [0.18, -0.31, 0.81, ...]
- "כלכלת ישראל גדלה ב-2026" → [0.91, 0.12, -0.05, ...]
שני הוקטורים הראשונים קרובים מתמטית - מרחקם הוא 0.05. השלישי רחוק - מרחקו 0.92. כך AI "מבין" שהשניים הראשונים מדברים על אותו תחום, גם בלי שמישהו אמר לו את זה.
למה זה חשוב לכל מי שעובד עם AI
שלושה שימושים מעשיים:
- חיפוש סמנטי. במקום חיפוש מילה במסמכים, חיפוש לפי משמעות. שאלה "איך מתמודדים עם לחץ במשרד" תמצא גם תוכן שכותב "סטרס בעבודה" - שני ביטויים שונים, אותה משמעות.
- RAG. כפי שראינו אתמול, RAG מחפש מסמכים רלוונטיים לפני שהוא עונה. החיפוש הזה מבוסס על Embeddings.
- קלאסיפיקציה. מיון אוטומטי של תוכן לקטגוריות לפי דמיון לדוגמאות מתויגות.
הטיפ הפרקטי
אם אתם בונים מערכת עם תוכן פנימי, השלב הראשון תמיד יהיה - "להמיר את כל המסמכים ל-Embeddings ולשמור ב-vector database". אחרי שזה קיים, אפשר לעשות איתו חיפוש, RAG, או סיווג. זה שלב חד פעמי. מבחינת זמן ועלות - לרוב מדובר בכמה דקות וכמה דולרים בודדים גם לאלפי מסמכים.
מחר
נכיר vector database - איפה Embeddings שוכנים, איך מחפשים אותם, ולמה Pinecone, Weaviate ו-Qdrant הם השמות שאתם שומעים בכל הקשר של AI מתקדם.