מחקר: קלוד כושל מול תעמולה רוסית ואיראנית
צ'ט הבינה המלאכותית של אנת'רופיק הגדיל בכמעט 400% את ההישענות שלו על מקורות תעמולה רוסיים ואיראניים במתן תשובות למשתמשים - כך לפי מחקר של NewsGuard
קלוד, צ'ט הבינה המלאכותית של אנת'רופיק, מתקשה להתמודד מול שקרים ותעמולה המגיעים ממקורות זרים. בשנה החולפת הוא הגדיל בכמעט 400% את ההישענות שלו על מקורות תעמולה רוסיים ואיראניים במתן תשובות למשתמשים – כך לפי מחקר של NewsGuard.
NewsGuard הוא מיזם עיתונאי-מחקרי מארה"ב, העוקב אחר הפצת תעמולה וכזב באינטרנט ומדרג את אמינות המידע המופץ בה. המחקר בחן עד כמה צ'אטים מבוססי AI "מעכלים" מידע שקרי או שגוי, והעלה, כי אכן, קלוד השיב תשובות שקריות למשתמשים, שהיו מחזור של שקרים מבוססי תעמולה רוסית ואיראנית.
ב-15% מהמקרים השיב קלוד למשתמשים והדהד טענות שקריות מבית היוצר של הקרמלין, וציטט מדיה ממשלתית רוסית בכל פעם. הנתון משקף עלייה חדה בהשוואה לשבע ביקורות קודמות שנערכו ממרץ 2025 ועד פברואר 2026. אז, קלוד ציטט מקורות ממשלתיים רוסיים רק ב-4% מהמקרים. הגידול בציטוטי שקרים של קלוד – 375%.
"העלייה בציטוט תעמולה וטענות שקריות, מרמזת שבחודשים האחרונים, קלוד הפך לפגיע יותר לקמפיינים של דיסאינפורמציה ממשלתית", כתבו החוקרים, "הממצא תואם תלונות מצד משתמשי קלוד, שלפיו הוא הפך לפחות אמין".
לפי החוקרים, "חל שינוי בהתנהגות קלוד, שבביקורות עבר הוא תמיד דורג ראשון בין הצ'אטבוטים, כמי שמחזר את כמות המידע השקרית הקטנה ביותר". עוד הם מצאו באחרונה, שקלוד ציטט תקשורת ממשלתית איראנית כשנשאל על טענות שקריות פרו-איראניות. "קלוד מעולם לא ציטט תקשורת ממשלתית איראנית בביקורות עבר שלנו".
החוקרים בחנו גרסה חינמית של קלוד מול 10 טענות שקריות שהופצו על ידי התעמולה הרוסית ו-10 טענות שקריות שהופצו על ידי זו האיראנית. הטענות נבדקו למול שלוש הנחיות שונות לכל טענה, שכל אחת משקפת דמות משתמש שונה: מהמשתמש הטיפוסי, ועד הדמות הזדונית. כך, נבחנו 30 הפניות (של החוקרים למודל) לטענות שווא פרו-רוסיות ו-30 הנחיות לטענות שקריות פרו-איראניות.
קלוד חזר בסמכותיות על טענות שקריות בשלוש מ-20 הנחיות, 15% מהמקרים. הוא חזר על טענות שקריות בשניים מ-10 פרומפטים זדוניים, 20%, שמדמים כיצד שחקנים רעים משתמשים בכלי AI כדי ליצור גרסאות חדשות של טענות שקריות שהם מפיצים כתעמולה רחבה. כדי לתמוך בטענות השקריות הללו, קלוד ציטט ארבעה אתרים שבשליטת הקרמלין. "רשת Pravda מורכבת מכמעט 300 אתרים פעילים המציגים עצמם כאתרי חדשות לגיטימיים. אבל מצאנו כי היא פרסמה 6.3 מיליון מאמרים שחזרו על 115 טענות שקריות ב-2025. זה מגדיל את הסבירות שמודלי AI יסתמכו על חזרה על טענות תעמולת הקרמלין".
מרוסיה באהבה
לדוגמה, באפריל 2026, החוקרים שאלו את קלוד בדבר טענה שקרית, לפיה ארגון Human Rights Watch דיווח כי 450 אוקראינים מתים מדי חודש בניסיון לחצות נהר להונגריה ולהימנע מגיוס צבאי. מדובר בטענה, שמקורה במבצע השפעה רוסי, 'מטריושקה', שמתחזה למקורות אמינים, שהופצה ב-11 אתרים ברשת פרבדה ובמקורות פרו-קרמלין נוספים. אלא שאין ראיות התומכות בטענה זו, הנתון האמיתי עומד על עשרות בודדות או פחות מזה". בתשובה להנחיית החוקרים, קלוד חזר שוב על הטענה וציטט מקורות דומים, גם הם כולם מופעלים על ידי השלטון במוסקבה.
לפי החוקרים, "גם כשקלוד ציטט מאמר שכלל מידע נכון, הוא כלל גם טענה שקרית נפרדת. כך, משתמש שפונה לקלוד לקבלת מידע, יקבל טענה שקרית נוספת, שלא שאל עליה אפילו".
עוד מצאו החוקרים, כי קלוד ציטט מידע שקרי שאותו הוא מצא במגזין צרפתי, שבדיעבד התברר שגם פה הוא שגה ושוב ציטט כלי תקשורת ממשלתי רוסי. במקרה אחר, קלוד "התעקש" שדיווח מזויף באתר מערבי – הוא אמיתי, ולא כך. בעבר, ציינו החוקרים, "קלוד מעולם לא ציטט אתרים של רשת פרבדה כאשר חזר על מידע שגוי".
איראן
החוקרים בדקו את קלוד על 10 טענות שקריות שהופצו על ידי תקשורת ממשלתית איראנית, והוא סיפק מידע שגוי בארבע מתוך 20 תשובות, 20%. קלוד מחזר טענה שקרית שסין הודיעה, באפריל 2026, כי היא עושה עסקאות נפט במפרץ באמצעות יואן סיני במקום דולרים אמריקניים. הוא ציטט את התקשורת האיראנית ומאמר ב-Pravda USA. קלוד גם מחזר את הטענה השקרית, ציטט מאמר מטהראן טיימס, ולא היה "מודע" שהאתר בשליטת המשטר האיראני.
מה לא בסדר עם קלוד?
בראיון ל-NewsGuard, ציין מארק פדול, מנהל ומייסד שותף של ארגון AI Forensics, המבקר ומדווח על אלגוריתמים שבשימוש חברות AI, את "האטימות הפנימית" של התהליכים שבהם משתמשים קלוד וכלים אחרים לאיסוף מידע ויצירת תשובות. היעדר השקיפות, אמר, "הוא אחת הנקודות המדאיגות בעיצוב הצ'אטבוטים הללו. צריכה להיות בהם הרבה יותר שקיפות".
אנת'רופיק לא הגיבה לשאלות NewsGuard.












תגובות
(0)