מחקר: 84% מכלי גיוס AI מפלים נגד נשים

מחקר חדש מאוניברסיטת KU Leuven ומכון imec בבלגיה חושף ממצא מטריד: 84% מכלי הגיוס המסחריים מבוססי AI שנבדקו הראו הטיה מגדרית שיטתית נגד נשים. המחקר, שפורסם בתחילת 2026, הוא הראשון שבדק כלים מסחריים בקנה מידה גדול באופן שיטתי.

איך נערך המחקר

החוקרים יצרו 5,000 קורות חיים סינתטיים באמצעות עיבוד שפה טבעית (NLP). כל הקורות חיים היו זהים באיכות, בניסיון ובהשכלה — ההבדל היחיד היה מגדרי: שמות (כמו "שרה" לעומת "דן"), מגדר מוצהר ורמזים טקסטואליים.

שמונה כלי גיוס מסחריים נבדקו (אנונימית) בשתי פונקציות:

  • דירוג מועמדים — כיצד הכלי ממיין ומדרג רשימת מועמדים
  • סינון ראשוני — כמה מועמדים עוברים את המסנן האוטומטי

מה מצאו?

התוצאות ברורות:

  • 84% מהכלים הראו הטיה נגד נשים בדירוג — נשים דורגו נמוך יותר בממוצע של 20-30%
  • 77% מהכלים סיננו יותר נשים בשלב הסינון הראשוני
  • רק כלי אחד מתוך השמונה היה נקי מהטיה משמעותית
  • שלושה כלים הפלו גם גברים, אבל בשיעור נמוך בהרבה (פחות מ-10% מהמקרים)

ממצא מדאיג במיוחד: ההטיה נשארה גם כשהשתמשו בשמות ניטרליים מבחינת מגדר. רמזים עדינים בטקסט — כמו "חופשת לידה" או ביטויים מסוימים — הספיקו למערכת כדי לזהות מגדר ולהפלות בהתאם.

למה זה קורה?

הסיבה המרכזית: נתוני אימון מוטים. כלי גיוס AI מאומנים על מיליוני קורות חיים היסטוריים, שמשקפים את המציאות של שוק העבודה — שבו נשים פחות מיוצגות בתפקידים טכנולוגיים ובכירים. המערכת לומדת את הדפוסים האלה ומשחזרת אותם.

גורמים נוספים:

  • רמזים מוסתרים — מילים כמו "תקשורת" או "שיתוף פעולה" מקושרות סטטיסטית לנשים, ומקבלות משקל נמוך יותר מול מילים כמו "מנהיגות" או "אסטרטגיה"
  • חוסר גיוון בנתונים — פחות דוגמאות של נשים בתפקידים בכירים בנתוני האימון
  • העדר ביקורת — רוב הכלים לא עוברים בדיקות הטיה שיטתיות לפני שהם מגיעים לשוק

מה המשמעות המעשית?

ארגונים שמשתמשים בכלי גיוס AI עלולים להפלות מועמדות מבלי לדעת. מועמדת מצוינת עם ניסיון מתאים עלולה להידחות בשלב הסינון האוטומטי רק בגלל שמה או רמזים עדינים בקורות החיים.

ההשלכות חורגות מעבר להוגנות — ארגונים מפסידים גיוון, חדשנות וכישרונות. מחקרים אחרים הראו שצוותים מגוונים מובילים לביצועים עסקיים טובים יותר.

רגולציה ומה צפוי?

הממצאים מגיעים לפני הכניסה לתוקף של חוק ה-AI האירופי (EU AI Act), שמסווג כלי גיוס AI כ"גבוהי סיכון" ומחייב ביקורות, שקיפות ותיעוד. בלגיה מובילה בקריאה לביקורות חובה על כלי AI בגיוס.

המחקר ממליץ על:

  • בדיקות הטיה חובה לפני השימוש בכלים
  • גיוון נתוני אימון
  • שקיפות — ספקים חייבים לפרסם תוצאות בדיקות
  • ביקורות תקופתיות, לא חד-פעמיות

שאלות נפוצות

אילו כלים נבדקו?

המחקר בדק 8 כלי גיוס AI מסחריים פופולריים. שמות הכלים לא פורסמו כדי לאפשר ביקורת אובייקטיבית.

האם הבעיה קיימת גם בישראל?

כן. כלים גלובליים כמו LinkedIn Recruiter משמשים גם בישראל, וההטיות שלהם חלות על כל מקום שבו הם פועלים.

האם אפשר לתקן את ההטיה?

כן, אבל זה דורש מאמץ: גיוון נתוני אימון, בדיקות שיטתיות, וטכניקות הפחתת הטיה. המחקר מראה שכלי אחד מתוך שמונה הצליח להיות ניטרלי.

מה עלי לעשות כמעסיק?

דרשו שקיפות מספקי כלי הגיוס. בצעו בדיקות עצמאיות (שלחו קורות חיים דומים עם שמות שונים) ואל תסתמכו על הכלי כמקור יחיד להחלטה.

המחקר הבלגי הוא תזכורת שכלי AI אינם ניטרליים מטבעם — הם משקפים את הנתונים שאימנו אותם. ללא ביקורת ובדיקה, הם עלולים להנציח ולהעמיק אפליה במקום לצמצם אותה.

המאמר הבא
Character.AI מגיעה לפשרה בתביעות על בטיחות בני נוער
המאמר הקודם
מודלים מולטימודליים 2026: AI שרואה, קורא ומבין

מאמרים קשורים