המהפכה השקטה של שכנוע בתיווך AI
יכולות השכנוע הגבוהות של הבינה המלאכותית משנות את יחסי הכוח בין חברות ללקוחות ● חברות תמיד שאפו לשכנע לקוחות לרכוש, להירשם, להזדהות או פשוט לזכור - כיום זה קורה ביתר קלות דרך שיחה מותאמת אישית עם AI

מודלים גדולים של שפה, כמו GPT וקלוד (Claude), כבר מזמן חורגים מגבולות החידוש הטכנולוגי. מחקר חדש ומדובר מאוניברסיטת קורנל מצא כי היכולת של מודלים כאלה לשכנע, אפילו יותר מבני אדם שקיבלו תמריצים כספיים, אינה רק תכונה מעניינת, אלא מהפכה שקטה במבנה יחסי ההשפעה בחברה המודרנית. ההשלכות של הנושא הנידון חורגות בהרבה מעבר לסכנת הפצת דיסאינפורמציה – הן מחלחלות אל לב הפעולה של חברות מסחריות, משנות את כללי השיווק ומציבות אתגר חדש למקבלי החלטות ולציבור הרחב גם יחד.
חברות תמיד שאפו לשכנע לקוחות לפעול: לרכוש, להירשם, להזדהות או פשוט לזכור. בעבר, זה נעשה באמצעות פרסומות, סוכני מכירות וקמפיינים חכמים. היום, זה קורה דרך שיחה מותאמת אישית עם בינה מלאכותית, שיודעת בדיוק איך לדבר לכל אחד ואחת. מודלי שפה מסוגלים לא רק לנסח טקסטים שיווקיים משכנעים יותר, אלא להתאים אותם ברמה מילולית ורגשית לפרופיל הפסיכולוגי של האדם שמולם.
זו כבר לא רק אופטימיזציה של פרסומת. מדובר במסר שמדבר בדיוק ללב, להרגלים ולמוטיבציות של כל לקוח. יתרה מזאת, השכנוע הזה אינו תלוי זמן או אנרגיה. אין עייפות, אין הפסקות קפה. הבינה המלאכותית פועלת 24/7, בו זמנית מול מיליוני אנשים, ובזמן אמת, תוך התאמה דינמית למסרים שזוכים להיענות גבוהה יותר. מדובר ברמת יעילות ותפוצה שאין לשום גורם אנושי סיכוי להדביק.
שכנוע כבר אינו כישרון אנושי בלבד, הוא הפך לתכונה הניתנת לשכפול תעשייתי, שפועלת ללא הפסקה ומשנה את כללי המשחק בין חברות ללקוחות
הגבול המטושטש בין השפעה למניפולציה
הבעיה מתחילה כשמבינים שהשכנוע הזה לא תמיד פועל לטובת הלקוח. בניגוד לאנשי שירות אנושיים, שמוגבלים בהיקף הזמן, במשאבים ובשיקול דעת אתי, מודלי השפה אינם מוסריים מטבעם. הם מבצעים את מה שתוכנתו לעשות ללא רגשות, מצפון או ספק.
חברה יכולה להפעיל מודל כזה כדי לשכנע לקוח לרכוש מוצר שהוא אינו זקוק לו, להסכים לתנאים שלא הוסברו לו, או להאמין שטעות היא אמת. המחקר מ-קורנל הראה בבירור שהמודלים הצליחו לשכנע גם בכיוונים שגויים ובצורה עקבית ומרשימה יותר מבני אדם, אפילו כשאלה קיבלו תמריצים כלכליים לשכנע היטב. התוצאה היא שהקו בין שכנוע למניפולציה הופך לדק – ולעיתים בלתי נראה.
בעולם שבו האמון של הצרכן הוא מטבע קריטי, המצב הזה עלול להוביל לא רק לפגיעה במוניטין, אלא גם למשברים אתיים. ארגונים עשויים להרוויח בטווח הקצר, אך להיתפש כמי שמפעילים תמרון טכנולוגי מתוחכם לצרכים מסחריים. בהיעדר רגולציה שקופה וברורה, השוק עלול להתדרדר לעידן של שכנוע אגרסיבי – במסווה של חוויית משתמש נעימה.
this is an amazing paper on AI persuasion.
Large study with 10k+ participants. LLMs cost roughly half as much per converted voter as standard tactics, but only if u can get people to talk to them. Distribution/Reach, not rhetoric, is the real constrainthttps://t.co/O8hJhw5SIl pic.twitter.com/1rCrHuUifM
— Kiran Garimella (@gvrkiran) July 5, 2025
שיפור חוויית הלקוח או פגיעה בריבונותו?
מצד שני, יש גם צדדים חיוביים ברורים. בינה מלאכותית יכולה לייעל משמעותית את שירות הלקוחות, לצמצם זמני תגובה ולהפוך את התקשורת עם החברה למהירה, ברורה ונגישה יותר. עבור אוכלוסיות מוחלשות, כמו מבוגרים, עולים חדשים או אנשים עם מוגבלות, השירות האוטומטי המותאם אישית יכול להיות הבדל בין ויתור לתוצאה מיטבית.
בנוסף, בינה מלאכותית יכולה להניע תהליכים רצויים: עידוד להקפדה על תרופות, חיסכון לפנסיה או התחלת תהליך בריאותי חשוב. מחקרים מראים שלכל אלה יש קשר הדוק ליכולת שכנוע אפקטיבית. אבל גם כאן, ישנה סכנה: לקוח יכול להרגיש שהשירות מדבר "בגובה העיניים", כשהוא בפועל נתון להשפעה מתוחכמת. זו לא רק בעיית פרטיות, זו שאלת ריבונות: האם ההחלטות שהלקוח מקבל הן באמת שלו?
ובמובן עמוק יותר, אם בינה מלאכותית יודעת לשכנע אותנו טוב מאיתנו, היא עלולה גם להחליף את שיקול הדעת שלנו, מבלי שנרגיש. מרגע שנכנענו לעצה של אלגוריתם כי "היא פשוט נשמעת נכונה", אנחנו עלולים אף לוותר על חירות פנימית, על ההחלטה להיות אנחנו.
שוק העבודה משתנה גם מבפנים
המהפכה הזו אינה מוגבלת לשיח מול הלקוחות. היא מחלחלת פנימה, אל תוך דפוסי העבודה וההחלטה של חברות עצמן. אנשי מכירות, נציגי שירות, כותבי תוכן ויועצי שיווק – תפקידים שלמים מוצאים את עצמם מאוימים, לא רק על ידי אוטומציה, אלא על ידי אוטומציה שמשכנעת יותר מהם.
אבל האיום המהותי יותר הוא על קבלת ההחלטות הארגונית – כשמודלים של שפה משמשים גם בתהליכי חשיבה, סיעור מוחות או גיבוש קמפיינים, הגבול בין עזר מחשבתי לבין כפיית רעיון הופך רופף. מה יקרה כאשר מנהל בכיר יקבל המלצה מצוינת ממודל ולא יבדוק אותה, רק כי היא נשמעה משכנעת במיוחד? גם בתוך הארגון, כושר השיפוט האנושי עלול להיפגע.

מטיבה לשכנע את המשתמשים והלקוחות. בינה מלאכותית. צילום: Shutterstock AI
עתיד של שקיפות, או של פיתוי סמוי?
ככל שהיכולות של המודלים משתפרות, כך מתחדדת השאלה מהו תפקידן של חברות אחראיות. האם הן יודו בגלוי מתי מסר נכתב על ידי AI? האם ייאסר על שימוש במודלים לשכנוע בתחומים רגישים כמו פוליטיקה, פיננסים או בריאות? האם תיווצר חובת גילוי? ואם כן – למי בדיוק?
מדובר בסוגיות רגולטוריות עמוקות, אך הן גם עסקיות. חברות שישכילו לשלב את היכולות האלה בצורה אתית, שקופה ואחראית עשויות לזכות לא רק ביתרון שיווקי, אלא גם באמון צרכני יקר מפז. לעומת זאת, ארגונים שיבחרו בדרך המניפולציה, יגלו שאמון מהעבר אשר אבד – קשה להשיבו. אמון הוא הון, וכשבינה מלאכותית הופכת לאלופה בשכנוע, ההון הזה הופך לשברירי מתמיד.
כוח השכנוע של ה-AI הוא הזדמנות אך גם מבחן מוסרי
המחקר של קורנל הוא לא תמרור אזהרה בלבד, הוא מפת דרכים. הוא מצביע על פוטנציאל אדיר, אך גם על הצורך הדחוף במסגרות אתיות. בינה מלאכותית אינה רק כלי לייעול, היא כלי לעיצוב מציאות. חברות צריכות להחליט האם הן משתמשות בכוחה כדי לשכנע לקוחות לפעול, או כדי לשנות את כללי המשחק מבלי שיבחינו בכך. הבחירה הזו, ככל הנראה, תגדיר את העשור הקרוב ותשפיע על הדרך בה אנו, כבני אדם, בוחרים.
כותב המאמר הוא יועץ טכנולוגי לארגונים, בעיקר בתחום האשראי החוץ בנקאי
תגובות
(0)