Claud

הבינה המלאכותית יוצרת סיכוני סייבר - אבל גם הגנה טובה יותר מפני סיכונים.

מחקר חדש: ה-AI יכולה להיות רמאית ולהטעות את מאמניה

חוקרי אנטרופיק גילו כי ניתן לאמן כלי AI - כמו בארד, ChatGPT מבית OpenAI, ואת הכלי של החברה עצמה, קלוד - להפגין התנהגות מועילה לכאורה, אך בתוך שמירת קווי הנחייה סודיים, שעלולים להוציא מהם התנהלות מזיקה

אירועים קרובים