סיכוני AI

אפשר לשכנע אותם לציית כפי שמשכנעים בני אדם. מודלי הבינה המלאכותית.

מחקר מצא שניתן "לאלף" AI לציית ולהפר את הכללים

החוקרים מאונ' פנסילבניה חשפו כיצד טקטיקות שכנוע אנושיות גורמות למודלי AI, כמו GPT-4o Mini, לחרוג מהכללים שנקבעו להם ● האם ה-AI פגיעה למניפולציות בדומה לבני אדם? כך נראה, על סמך הממצאים המדאיגים

דניאל ארנרייך, יועץ ומרצה בתחום האבטחת סייבר למערכות תפעוליות.

חייבת להיות מודעות לסיכוני AI לפני שמחליטים

חשוב לבחון כמה סיכונים, שעשויים להוביל לפגיעה בתפקוד של הארגון שלכם, עם דגש על אותם סיכונים שנוצרו בעקבות הפעלה של מערכות מבוססות AI

אירועים קרובים