Agentic RAG: הדור הבא של שליפת מידע חכמה
עולם ה-AI וה-LLMs (מודלי שפה גדולים) מתקדם בקצב מסחרר. אחת הטכניקות המרכזיות שצברה תאוצה היא RAG (Retrieval Augmented Generation), המאפשרת למודלים לגשת למידע חיצוני כדי לספק תשובות מדויקות ומבוססות יותר. אך ככל שהטכנולוגיה מתפתחת, כך גם הגישות ל-RAG. לאחרונה, המונח "Agentic RAG" החל להופיע יותר ויותר. אז מה זה בדיוק, ואיך זה שונה מ-RAG "רגיל"?
מה זה RAG (Retrieval Augmented Generation)?
בבסיסו, RAG הוא תהליך המאפשר למודל שפה (או "סוכן" AI) לגשת למאגר נתונים חיצוני כדי לשלוף מידע רלוונטי לשאלה שנשאל. לאחר מכן, המידע שנשלף משולב עם השאלה המקורית כדי לייצר תשובה מפורטת וספציפית.
דרך פשוטה לחשוב על זה היא כמו לשאול מישהו שאלה, והוא לא יודע את התשובה מיד. הוא הולך, מחפש את התשובה (למשל, בגוגל), קורא את התוצאות, ואז חוזר אליך עם תשובה מבוססת על מה שמצא. זוהי המהות של RAG: לא להסתמך רק על הידע הפנימי של המודל, אלא להעשיר אותו במידע חיצוני עדכני ורלוונטי.
חשוב לציין, שלמרות שרבים מקשרים RAG מיידית למסדי נתונים וקטוריים, המונח רחב יותר ומתייחס לכל תהליך של שליפת הקשר ממקור חיצוני כדי לשפר את התשובה.
איך RAG מסורתי עובד (בדרך כלל עם מסד נתונים וקטורי)?
השיטה הנפוצה ביותר ליישום RAG כוללת שימוש במסד נתונים וקטורי:
- פיצול והטמעה (Chunking & Embedding): מסמכים (טקסט, PDF וכו') מחולקים לחתיכות קטנות יותר (chunks). כל חתיכה עוברת דרך מודל הטמעה (embeddings model) שהופך אותה לייצוג מספרי (וקטור) במרחב רב-ממדי. וקטורים דומים מבחינה סמנטית ממוקמים קרוב זה לזה במרחב זה.
- שאילתה והטמעה: כאשר משתמש שואל שאלה, גם היא עוברת דרך אותו מודל הטמעה והופכת לווקטור.
- חיפוש דמיון: המערכת מחפשת את הוקטורים (חתיכות הטקסט המקוריות) הקרובים ביותר לווקטור השאילתה במסד הנתונים הוקטורי.
- הרחבה ויצירת תשובה: החתיכות הרלוונטיות ביותר שנמצאו משולבות עם השאלה המקורית, ומוזנות למודל השפה הגדול (LLM) כדי לייצר תשובה סופית למשתמש.
המגבלות של RAG מסורתי
למרות יעילותו, ל-RAG מסורתי יש מגבלות:
- חוסר בהקשר מלא: מכיוון שהמערכת עובדת עם חתיכות (chunks), היא עלולה לפספס את ההקשר הרחב של המסמך כולו. לדוגמה, אם נבקש לסכם פגישה מתוך מסמך PDF ארוך, RAG מסורתי עשוי לשלוף רק כמה חתיכות אקראיות ולסכם אותן, במקום לקרוא ולהבין את כל המסמך.
- קושי עם נתונים מובנים וחישובים: RAG מסורתי, במיוחד זה המבוסס על וקטורים, מתקשה להתמודד ביעילות עם נתונים טבלאיים (כמו גיליונות אלקטרוניים) ועם ביצוע חישובים מדויקים. למשל, אם נשאל "באיזה שבוע היו המכירות הגבוהות ביותר?" מתוך טבלת מכירות, המערכת עלולה לשלוף חתיכה מהטבלה ולזהות את הערך הגבוה ביותר *באותה חתיכה*, גם אם הוא לא הגבוה ביותר בכל הטבלה. באופן דומה, חישוב ממוצע (כמו ממוצע ערך הזמנה) עלול להיות לא מדויק אם הוא מבוסס רק על חתיכה מהנתונים.
הכירו את Agentic RAG: תוספת של שכבת "חשיבה"
כאן נכנס לתמונה Agentic RAG. במקום שהסוכן פשוט יטמיע את השאילתה ויחפש במסד נתונים וקטורי, הוא קודם כל עוצר ו"חושב". הוא מנתח את השאלה ואת המשאבים העומדים לרשותו כדי להחליט מהי הדרך הטובה ביותר להשיג את המידע הנדרש.
סוכן כזה יכול:
- לבדוק את סוגי הנתונים הזמינים: האם מדובר בטקסט, בטבלאות (דורש SQL?), בקבצים ספציפיים?
- להבין את מבנה הנתונים (Schemas): אם מדובר בטבלה, הסוכן יכול לבדוק את מבנה העמודות כדי לנסח שאילתת SQL מדויקת.
- לקרוא תוכן של קבצים: לזהות איזה מסמך רלוונטי לשאלה, או אפילו לקרוא מסמך שלם כדי לקבל הקשר מלא לפני שליפת פרטים ספציפיים.
- לבחור את הכלי המתאים: בהתאם לניתוח, הסוכן יחליט אם לשלוח שאילתה למסד נתונים וקטורי, ליצור שאילתת SQL למסד נתונים רלציוני, לקרוא תוכן של קובץ ספציפי, או להשתמש בכלי אחר.
למה Agentic RAG חשוב?
היכולת של הסוכן "לחשוב" לפני הפעולה מביאה ליתרונות משמעותיים:
- יעילות ורלוונטיות גבוהות יותר: הבחירה בכלי הנכון למשימה הנכונה חוסכת משאבים ומבטיחה שהמידע שחוזר הוא אכן הרלוונטי ביותר.
- דיוק משופר, במיוחד עם נתונים מובנים: היכולת להשתמש ב-SQL לשאילתות על נתונים טבלאיים מאפשרת לבצע חישובים מורכבים ומדויקים (כמו מציאת מקסימום, ממוצע, סכום בטווח מסוים) שלא אפשריים באותה רמה ב-RAG וקטורי פשוט.
- הבנת הקשר מלאה: הסוכן יכול להחליט לקרוא מסמך שלם (במיוחד עם מודלים בעלי חלון הקשר גדול) כדי לענות על שאלות הדורשות הבנה רחבה, כמו סיכום מסמך.
סיכום
Agentic RAG מייצג התפתחות טבעית וחשובה בעולם ה-RAG. על ידי הוספת שכבת חשיבה ותכנון, סוכני AI יכולים לגשת למידע בצורה חכמה, יעילה ומדויקת יותר, תוך התאמה טובה יותר לסוגי נתונים ומשימות מגוונים. גישה זו פותחת אפשרויות חדשות לניצול מיטבי של מאגרי המידע העצומים העומדים לרשותנו ולקבלת תובנות עמוקות יותר מהם.
תגובות
יש להתחבר כדי להגיב