מסמכים חושפים: כך פייסבוק מחליטה מה מותר לפרסום

האם מותר לפרסם בפייסבוק תכנים שתומכים בטרור? מתי מותר לפרסם תמונות או סרטונים של התעללות בחיות? ואילו אמירות יש להסיר? מסמכים חדשים חושפים את המדיניות של ה-"מדינה" הגדולה בעולם

לחפש את הפוליטיקאי - ולפנות אליו. צילום אילוסטרציה: Pe3check, BigStock

מסמכים שהגיעו לידי הגרדיאן (Guardian), שפורסמו במסגרת סדרת כתבות בשם "תיקי פייסבוק (Facebook)", חושפים את הכללים הפנימיים של החברה וכיצד מנסה הרשת החברתית הגדולה בעולם להחליט מה משתמשיה יכולים לפרסם בפוסטים שלהם ומה לא. מסדרת הכתבות עולה תמונה של רשת חברתית שמוצפת בתוכן, תוך שימוש בכללים שנראים לפעמים מבולבלים וסותרים.

בכתבות נחשפו כמה מסמכים ומדריכים פנימיים של פייסבוק, שנוגעים לאיומים באלימות, התעללות בילדים, אלימות גרפית ואכזריות כלפי בעלי חיים. לדברי העיתון, אנשיו סקרו יותר מ-100 מסמכים שאמורים לסייע לבודקי התוכן של החברה כשמשתמשים מדווחים להם על תוכן לא ראוי שהעלו משתמשים אחרים.

המסמכים חושפים קו שהחברה מנסה להוביל: פלטפורמה לביטוי חופשי ככל הניתן תוך הימנעות מנזק לעולם. פייסבוק משתמשת באתר בכמה מערכות אוטומטיות שמוחקות בצורה פרו-אקטיבית תוכן כמו התעללות מינית בילדים או טרור, אך שאר התכנים מטופלים על ידי צוותים של בודקי תוכן, שהחברה מספקת להם מסמכי הדרכה והוראות. באותם מסמכים כתוב כי "לעתים קרובות אנשים מבטאים בוז או אי הסכמה באמצעות איום או קריאה לאלימות בצורה לא רצינית – ולפעמים חצי בצחוק". יש גם דוגמאות מתי הצהרות מסוימות יכולות להתקבל ולהישאר באתר ("אני הולך להרוג אותך, ג'ון!"), ואילו אמירות יש להסיר (אני הולך להרוג אותך, ג'ון, יש לי סכין מושלמת בשביל זה!").

אותם מסמכי הדרכה אף מורים לבודקי התוכן להבחין בהבדל שבין סתם מישהו שמתפוצץ מכעס לאיום אמיתי, ומצביעים על מקרים שבהם פוסטים מפרטים איומים ספציפיים, עיתוי ושיטות. אלה מקבלים עדיפות ראשונית בטיפול על פני אחרים. פייסבוק אף מגדירה קבוצות מסוימות נגד אנשים פגיעים, כמו ראשי מדינות או קציני משטרה מסוימים, ואת הסיבות שבהן הן נמחקות.

הצגת התעללות בחיות – מותרת בתנאים מסוימים

יש גם שטחים אפורים רבים. למשל, הקווים המנחים מציינים כי "תמונות וסרטונים המתעדים התעללות בחיות" מותרים במטרה להגביר את המודעות לנושא. בעוד שלא ננקטת כל פעולה בנוגע לתמונות על התעללות בילדים, סרטונים הנוגעים להתעללות דווקא מסומנים כפוגעניים. משתמשים שמנסים לפגוע בעצמם גם הם "מורשים", משום שהחברה "אינה מעוניינת לצנזר או להעניש אנשים במצוקה שמאיימים בהתאבדות".

סדרת הכתבות מציינת גם כי בודקי התוכן סוקרים מיליוני דיווחים על תוכן החשוד כפוגעני, ובגלל מספרם הרב הם לפעמים עושים טעויות, בייחוד בתחום המסובך של תוכן מיני.

מוניקה ביקט, מנהלת המדיניות הגלובלית של פייסבוק, הודתה כי חלק מהפוסטים מפרים את כללי המדיניות של פייסבוק וציינה שביטחון המשתמשים עומד בראש סדר העדיפויות של החברה.

בחודשים האחרונים התפרסמו כמה מקרים של הסרת תוכן, כמו תמונה מפורסמת ממלחמת וייטנאם ורצח שפורסם בשידור חי בפייסבוק, שהניעו את החברה לשנות את מדיניותה ולשכור סוקרים נוספים שיסננו את התוכן. המקרים הללו הדגישו כמה קל לפרסם תוכן מעין זה ולהציגו למשתמשים, ושהתגובה של פייסבוק הייתה לקויה.

לפי הפרסום האחרון של פייסבוק, יש לה קרוב לשני מיליארד משתמשים. המשמעות היא שיהיה עליה להגביר בצורה עקבית את ההגנה על משתמשיה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים