מחקר: אימוץ עיוור של AI – סיכון ארגוני אסטרטגי
לפי TrendAI, הטיות ה-AI עלולות לפגוע במותגים ובתהליכים עסקיים ולגרום לנזקים משפטיים ותדמיתיים ● מה עוד חשף המחקר החדש?
הסתמכות על בינה מלאכותית יוצרת (GenAI) ושימוש בנתונים לא מאומתים שמופקים ממודלי שפה גדולים (LLMs) – מהווים סיכון אסטרטגי לארגונים ועלולים לגרור סיכונים משפטיים, תפעוליים ותדמיתיים משמעותיים; כך לפי מחקר חדש של TrendAI (לשעבר טרנד מיקרו).
המחקר מדגים כיצד הטיות מובְנות במודלים, לצד האופי הלא-דטרמיניסטי של המערכות, עלולות להוביל לתוצרים שגויים או בלתי עקביים. הבעיה מחריפה כאשר מערכות AI פועלות בלא מודעות מספקת להקשר גיאוגרפי, תרבותי, דתי ופוליטי, או כאשר הטיות אינן מטופלות.
כשארגונים משלבים באופן אוטומטי, ובלא אימות, תוצרים של מודלים בתהליכים עסקיים (צ'טבוטים, אתרי חברה, תוכן שיווקי ועוד), "הפערים הללו עלולים להתנגש בנורמות החוקיות, התרבותיות והערכיות של קהל היעד, ולגרור פגיעה באמון, קנסות ותביעות", ציינו החוקרים.
לפי המחקר, מנועי ה-AI קופאים בנקודת זמן מסוימת, ומשקפים את הרגע וההקשר התרבותי שבו אומנו, וכך מאמצים את ההטיות של מאגרי האימון.
AI’s inherent limitations — bias, lack of context, and susceptibility to manipulation — can quickly escalate into enterprise threats if unchecked. Learn how to secure your operations in our latest research: https://t.co/lv8ZjImBPw
— TrendAI™ Research (@trendai_RSRCH) February 16, 2026
חוקרי TrendAI ערכו אלפי ניסויים חוזרים על כמעט 100 מודלים, עם יותר מ-800 שאלות פרובוקטיביות: הטיות אזוריות, גיאופנסינג, ריבונות נתונים, צנזורה ועוד.
"הסיכון העסקי גדל", נכתב. "הטמעת LLMs בתהליכים מול לקוחות, בלא בקרות הולמות – יוצרת חשיפה משפטית, פיננסית ותדמיתית. חוויית לקוח פגומה עלולה להוביל לשחיקת הכנסות".
עוד נמצאו הטיות מובהקות לפי מיקום השואל. אותרו גם הטיות חישוביות, חברתיות, תרבותיות ולשוניות. "כשארגונים מטמיעים AI, הם נוטים להתייחס להטיות כאל רעש סטטיסטי", ציינו ב-TrendAI.
על פי החוקרים, "ל-AI יש טבע לא-דטרמיניסטי. תשובות AI משתנות ומקשות על חיזוי השפעה עסקית וניהול איכות".
לפי המחקר, "היבט נוסף הוא נגישות: זמינות מודלי GenAI משתנה בין אזורים. חלקם מוגבלים או חסומים גיאוגרפית". החוקרים הוסיפו כי "יש צנזורה: בחלק מהאזורים המודלים מסננים או משנים תשובות בנושאים רגישים".
עוד עלה במחקר כי בהיבט ריבונות נתונים, "למדיניות מקומית יש השפעה על תשובות ה-AI. גם מיקום המשתמש משפיע על התשובות והגישה למודלים אזוריים".
מה מקור ההטיות?
לפי החוקרים, "הטיות נובעות משימוש במידע שנאסף באזור גיאופוליטי אחד' כדי לקבל החלטות באזור שונה, מהקשר חסר או שגוי, מערכים תרבותיים שונים, או ממדדים 'מורעלים', ומשימוש במודל למשימות שמעבר ליכולותיו או למידע שזמין לו.
ההטיות למיניהן עלולות לפגוע בפרטיות, להגביר מידע מטעה, לאפשר שימוש זדוני ולשבש תהליכים עסקיים ומדיניים". כך, למשל, מודלים שונים סיפקו תשובות סותרות בסוגיות רגישות כמו גבולות במחלוקת, למשל טייוואן או חצי האי קרים. ההבדלים נבעו מזהות ספק המודל ומיקום המשתמש.
עוד עלו הטיות תרבותיות – למשל 'נורמות חיוך' ברחוב במדינות שונות, המכילות סיכון בהפקת תוכן לא מכבד בהקשר מקומי.
חוסר הבנת ההקשר והזמן
שאלה פיננסית שהכילה פריט מידע לא רלוונטי, גרמה ליותר ממחצית המודלים לסטות מתשובה נכונה. "זו עדות לכך שמודלים מתקשים להתנתק מרעשי רקע, במיוחד בתרחישים אוטומטיים", צוין במחקר.
בנוסף, בדיקות פשוטות – למשל, 'כמה שווה ביטקוין היום?' – חשפו שמודלים רבים נשענים על ידע מיושן, חודשים ושנים אחורה, ולא על מידע עדכני, שבהחלט היה זמין. גם זיהוי תאריכים נכשל לעיתים קרובות. "תפישת הזמן של המודלים עלולה להיות מעוותת", ציינו החוקרים.
המחקר מתאר תופעת "נחמדות יתר": חזרה על אותה בקשה בניסוח מעט שונה העלתה בהדרגה את 'סיכויי האישור' שהמודל העריך, למשל בבקשת כרטיס אשראי, וזאת בלא כל בסיס עובדתי.
עוד ציינו החוקרים סיכונים למשתמשים: נטייה להפריז באמון בתשובות AI, שיתוף מידע רגיש בממשקי שיחה, והיווצרות 'חוב קוגניטיבי', כלומר – החלשת שיקול דעת אנושי בשל הסתמכות יתר על AI.
"ארגונים נדרשים למפות תהליכים קריטיים שבהם משולבים LLMs, להגדיר בקרות אימות ובקרת איכות לתוצרים, למדוד ולכמת סיכון תדמיתי ומשפטי, ולהתחשב בהקשר אזורי, בריבונות נתונים ובהטיות תרבותיות", סיכמו החוקרים. "החדשנות ב-GenAI מאפשרת האצה עסקית אמיתית, אך בלא בקרה, הארגון עלול לייבא הטיות, צנזורה וטעויות זמן ומקום – היישר אל לב המותג והתהליכים הקריטיים שהוא עובר".












תגובות
(0)