מחקר: כך ניהלו ישראל ואיראן את מלחמת ה-AI והפייקים בעם כלביא
שתי המדינות, ובעיקר איראן, לא היססו, והשתמשו ב-AI ובתכנים מזויפים כדי לגרום לחוסר ודאות, בהלה ותחושת הפסד במלחמה ● הדברים עולים ממחקר של איגוד האינטרנט על מה שרבים מכנים "מלחמת ה-AI הראשונה בהיסטוריה"
מלחמת עם כלביא בין ישראל לאיראן כללה מלחמה נוספת – או תת מלחמה, אם תרצו, של תוכן פייק ודיסאינפורמציה, שנוצר בחלקו הלא מבוטל על ידי בינה מלאכותית. מחקר שפרסם בסוף השבוע איגוד האינטרנט הישראלי עומד על החלק הזה של המלחמה – בעיקר, אך לא רק, מהצד האיראני נגד ישראל, במה שיש שמגדירים כ-"מלחמת ה-AI הראשונה בהיסטוריה".
חוקרי איגוד האינטרנט ניצן יסעור, יעל רם ועידן רינג ניתחו 592 פרסומי בדיקת עובדות בתוכן דיגיטלי שפורסם במהלך המלחמה, שביצעו 50 ארגונים שונים ב-14 מדינות. בנוסף, הם בחנו את מאמצי בדיקת העובדות בישראל במהלך המלחמה, וגילו כי הם היו מצומצם ביותר, על אף החשיבות שהמידע שיגיע לציבור יהיה אמין ומהימן, ולא היו מתאימים למיעוטים שונים בארץ.
ואמנם, אחת המסקנות הברורות מהמחקר היא שהתוקפים האיראניים במלחמת הפייק וה-AI לא הסתפקו בישראל, אלא התכנים וקהלי היעד שלהם היו גלובליים וחוצי שפות – ומרביתם נועדו לשרת נרטיבים ואינטרסים איראניים ולפגוע בישראל.
מה כלל הפייק?
ולנתונים: 71% מהבדיקות שפורסמו ונבדקו על ידי חוקרי איגוד האינטרנט בחנו מידע שקרי שנועד לקדם אינטרסים איראניים ולפגוע בישראל. התמה הבולטת ביותר של התוקפים, עם 44% מהתכנים שנבדקו, הייתה הגזמת הנזק שנגרם למבנים ותשתיות בישראל ובאיראן מההתקפות של מדינת האויב. תכנים כוזבים אלה כללו, למשל, הרס שטילים איראניים גרמו לכאורה למגדלי עזריאלי בתל אביב, או שדה תעופה באיראן שנחרב כתוצאה מתקיפות ישראליות.
במקום השני נמצאים פיצוצים שלא תמיד קרו באתרים שונים, עם 39% מהתוכן שנבדק. תכנים אלה כללו תמונות וסרטוני וידיאו של אש, עשן והתפוצצויות ברגעי הפגיעה, שיוחסו לתקיפה של אחד מהצדדים, על אף שפעמים רבות הם הוצאו מהקשרם. כך, למשל, החוקרים מצאו דיווחים כוזבים שעסקו בתקיפות על מתקן הגרעין בפורדו או פיצוץ בנמל חיפה. המטרה של התוקפים הייתה לעורר פחד ואי ודאות לגבי הפגיעה ורגעי הפיצוץ, וליצור תחושת כאוס תוך כדי מלחמה.

תקיפה ישראלית בלבנון הפכה ל-"תקיפה איראנית על מתקן צבאי בישראל". צילום: מתוך המחקר
בהמשך הרשימה נמצאים הפגנת כוח צבאי עם 15%, למשל מלאי פצצות ישראליות, או משאיות עמוסות טילים בדרכן לשיגור לעבר ישראל, במטרה להרתיע ולהבהיל את האויב, וצילומים של בהלה ציבורית, עם 14%. כך, למשל, מפרסמי הפייק הראו תמונות שנוצרו על ידי AI של המוני אנשים בורחים, כביכול, ממרכזי ערים כתוצאה מתקיפה של הצד השני. מטרתם הייתה לעורר דה מורליזציה ולהגביר את תחושת ההפסד בקרב האויב.
מרבית התכנים שנבדקו (76%) התבססו על הוצאה מהקשר של זמן. כלומר, בדיקת העובדות מצאה שהאירוע המדובר התרחש או פורסם בזמן אחר מכפי שנטען. לדוגמה, תכנים רבים שפורסמו בזמן המלחמה התרחשו בפועל בעימות הקודם בין ישראל לאיראן, ב-2024, או בעימותי עבר אחרים ברחבי העולם. 71% מהתכנים קיבלו מסגור או הקשר שגוי. במסגרת זו, מפרסמי הפייק הציגו עובדות נכונות, אבל בהקשר שמעניק להן משמעות שונה מזו המקורית או מנוגדת לה, גם אם הזמן והמיקום שצוינו בתוכן היו מדויקים. לדוגמה, הפגנה בארצות הברית שנטען שעסקה במלחמה הישראלית-איראנית הייתה בכלל בנושא אחר. רבים מהתכנים האלה צולמו בכלל בסין. עוד עלה מהמחקר כי יותר ממחצית התכנים (63%) תיעדו אירועים שנטען שהתרחשו במקום מסוים – והם התרחשו במקום אחר.

חייל ישראלי שנכנע? לא היה ולא נברא. צילום: מתוך המחקר
מלחמת ה-AI הראשונה בהיסטוריה?
חמישית מהתכנים שהוצאו מההקשר נוצרו באמצעות בינה מלאכותית, כולל סרטון שמציג כביכול חייל ישראלי שנכנע. הניתוח מעלה כי הרוב המוחלט של תכני ה-AI הקשורים במלחמה, 73%, היו סרטוני וידיאו, ורק 27% היו תמונות.
יסעור אמר כי "המחקר מדגים כיצד הפצת תוכן כוזב על גבי הרשתות החברתיות בשילוב של כלי AI הולך ומשתכלל, והופך לחלק מרכזי ובלתי נפרד במלחמות בעידן הדיגיטלי. התמודדות עם האיומים החדשים הללו דורשת מעורבות של שחקנים וגופים מגוונים במשימת ההגנה על האזרחים בעורף הדיגיטלי – כמו חברה אזרחית חזקה, עיתונות עצמאית וחינוך לאוריינות רשת, בנוסף לרשויות ולגופי המדינה".











תגובות
(0)