פייסבוק משתמשת באינטליגנציה מלאכותית כדי להילחם בטרוריסטים

החברה משתמשת ביכולות אלה בשילוב עם סוקרים אנושיים כדי לאתר ולהסיר מיידית "תוכן הקשור לטרור", לפני שמשתמשים יוכלו לצפות בו

בריטניה לענקיות הטכנולוגיה - סייעו יותר ללוחמה בטרור. אילוסטרציה: Mkabakov, BigStock

פייסבוק (Facebook) החלה לפרוס יכולות אינטליגנציה מלאכותית בניסיון למנוע מטרוריסטים להשתמש בשירותיה ולמנוע מפרסומים שלהם מלעלות לאוויר.

בבלוג של החברה נכתב בסוף השבוע כי היא משתמשת באינטליגנציה מלאכותית בשילוב עם סוקרים אנושיים כדי לאתר ולהסיר מיידית "תוכן הקשור לטרור", לפני שמשתמשים יוכלו לצפות בו. טכנולוגיה מעין זו כבר משמשת את פייסבוק כדי לחסום תוכן של פורנוגרפיית ילדים וגם בשירותים אחרים, כמו יוטיוב (YouTube), אבל עד כה הסתייגה הרשת החברתית מליישם אותה במקרים אחרים.

יצוין כי ברוב המקרים, פייסבוק מסירה תוכן שמעורר התנגדות רק אם משתמשים מדווחים עליו.

כמו חברות אחרות, גם פייסבוק מתמודדת עם לחץ הולך וגובר מצד ממשלות לזהות ולמנוע הפצה של תעמולה טרוריסטית או קריאות לגיוס באמצעות שירותיה. מוקדם יותר החודש קראה תרזה מיי, ראשת ממשלת בריטניה, לממשלות ליצור הסכמים בינלאומיים כדי למנוע הפצה ברשת של תכנים קיצוניים. ממשלת ישראל פנתה לפייסבוק בדרישה להוריד תכנים המסיתים לטרור ונציגי החברה אף נדרשו לנושא בישיבות בכנסת. שרת המשפטים, איילת שקד, ציינה אשתקד כי פייסבוק הסירה 95% מהתכנים שהממשלה ביקשה ממנה להסיר.

בבלוג של פייסבוק, שנכתב על ידי מוניקה ביקרט, מנהלת המדיניות הגלובלית, ובריאן פישמן, מנהל מדיניות הלוחמה בטרור, לא הוזכרו קריאות הממשלות, אבל הכותבים מכירים בכך ש-"לאור מתקפות הטרור האחרונות, אנשים מציגים שאלות על התפקיד של חברות הטכנולוגיה במלחמה אונליין נגד הטרור".

"קודם כל, אנחנו רוצים להשיב על כך", כותבים השניים בפוסט שלהם. "אנחנו מסכימים עם אלה שאומרים שאסור שהמדיה החברתית תהיה מקום שבו לטרוריסטים יש קול".

איך פייסבוק מיישמת את הצהרתה?

פייסבוק עושה שימוש ב-BI להתאמה של תמונות, שמשווה תמונות וסרטוני וידיאו שאנשים מעלים לרשת החברתית לתמונות או סרטוני טרור שכבר מוכרים. כשיש התאמה כזאת, המשמעות היא שפייסבוק כבר הסירה את התוכן, או שהוא מועבר לבסיס נתונים של חומרים כאלה, שהחברה משתפת עם מיקרוסופט (Microsoft), טוויטר (Twitter) ויוטיוב.

בנוסף, פייסבוק מפתחת "סימנים מבוססי טקסט" מפוסטים שהוסרו בעבר, שהיללו או תמכו בארגוני טרור. הסימנים האלה מוזנים למערכת לימוד מכונה, שבמהלך הזמן לומדת כיצד לאתר פוסטים דומים.

ביקרט ופיזמן ציינו גם שכשפייסבוק מקבלת דיווחים על פוסטים שחשודים כטרוריסטיים, היא סוקרת ובוחנת אותם בדחיפות. בנוסף, לדבריהם, במקרים הנדירים שבהם החברה חושפת עדות לנזק שעומד להתרחש – היא מדווחת על כך מיד לשלטונות.

אבל למרות השימוש שפייסבוק עושה בה, בשלב זה הטכנולוגיה הזאת עדיין לא הגיעה לנקודה שבה היא יכולה להבין את הניואנסים של השפה וההקשר, כך שאנשים עדיין חייבים להיות חלק מהתהליך. הכותבים ציינו בבלוג שפייסבוק מעסיקה 150 אנשים "הממוקדים בעדיפות ראשונה או באופן בלעדי באיתור סימנים לטרור, שזהו תפקידים העיקרי". אנשים אלה כוללים מומחים ללוחמה בטרור מהאקדמיה, תובעים לשעבר, אנשי אכיפה לשעבר, אנליסטים ומהנדסים.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים