תוכן פרסומי
ראשי » חדשות » אבטחת מידע וסייבר » אפל מודיעה על דחייה בהפעלת המערכת לזיהוי תכנים פדופיליים
דחייה. מנכ"ל אפל, טים קוק. צילום: יח"צ

אפל מודיעה על דחייה בהפעלת המערכת לזיהוי תכנים פדופיליים

בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים הודיעה החברה על דחייה בהשקתן לצורך עריכה של התאמות נוספות לפני ההשקה

מאת 5 בספטמבר 2021, 13:34 א+ / א- הדפסה הדפסה
פייסבוק טוויטר ווטסאפ פינטרסט לינקדאין דוא״ל

בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים, בהן לסרוק ולזהות תכנים הקשורים להתעללות מינית בילדים – CSAM (ר"ת Child Sexual Abuse Material) בספריות התמונות של משתמשיה ב-iCloud, הודיעה החברה כי היא מעכבת את מימושה כדי לערוך בה התאמות נוספות לפני שתושק.

בהצהרה ששלחה החברה ל9to5Mac היא מציינת: "בחודש שעבר הכרזנו על כוונתנו להשיק תכונות שנודו לסייע בהגנה על ילדים מפני חיות הטרף שמשתמשות בכלי תקשורת כדי לנצל אותם, ולהגביל את ההפצה של תכנים הקשורים להתעללות מינית בילדים. בעקבות התגובות שקיבלנו ממשתמשים, מחוקרים, מקבוצות חברתיות ומאחרים, החלטנו לקחת זמן נוסף בחודשים הקרובים כדי לאסוף תגובות נוספות ולשפר את התכונות החשובות האלה של אבטחת ילדים, לפני שנשיק אותן".

תכונות האבטחה הנוספות חוץ מסריקת ספריות התמונות יידחו גם הן, בהן התכונות שהיו אמורות להתווסף להודעות ולבסיס המידע של Siri ו-Search.

אפל תכננה להטמיע את תכונות האבטחה האלה במערכות ההפעלה iOS 15, iPadOS 15 ובגירסת Monterey של macOS מאוחר יותר השנה. כעת, החברה לא ציינה תאריך חדש ולא פירטה אילו שינויים והתאמות היא מתכוונת לערוך כדי לשפר את המערכת.

אפל מודיעה על דחייה בהפעלת המערכת לזיהוי תכנים פדופיליים Reviewed by on . בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים, בהן לסרוק ולזהות תכנים הקשורים להתעללות מינית בילדים – CSAM (ר"ת Child Sexual Abuse בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים, בהן לסרוק ולזהות תכנים הקשורים להתעללות מינית בילדים – CSAM (ר"ת Child Sexual Abuse Rating: 0

הגיבו