ميزة جديدة من آبل تعالج مشاكل الصور الفاضحة
بدأت شركة آبل الأمريكية وسائل حماية جديدة للأطفال على أجهزة آيفون، حيث تتيح الميزة للهاتف مسح رسائل الأطفال ضوئيًا والبحث عن صور بها عُري. إذا عثرت عليها، فسوف تحذر الأطفال بشأن ما يتلقونه أو يرسلونه، وتقدم لهم معلومات إضافية أو القدرة على مراسلة شخص يثقون به للحصول على المساعدة.
وتم إطلاق تلك الميزة بالفعل في الولايات المتحدة، وسوف يأتي لباقي العالم في تحديثات مقبلة خلال الأسابيع المقبلة، ولقد تم طرح البرنامج بشكل متقطع حيث تعمل آبل على ضمان أن الميزة والمساعدة التي تقدمها مصممة خصيصًا للبلدان الفردية.
تفاصيل الميزة الجديدة
يُشار إلى الأداة من قبل آبل تعمل على "حماية موسعة للأطفال" وتعيش داخل تطبيق الرسائل على نظم تشغيل iOS و iPadOS و WatchOS وMacOS. لا يتم تشغيله بشكل افتراضي.
وعند تشغيله، يستخدم تطبيق الرسائل الذكاء الاصطناعي لمشاهدة الصور التي يبدو أنها تحتوي على عُري. تحدث هذه المعالجة على الجهاز ولا يتم تحميل الصور أو التحذيرات على آبل.
إذا تم إرسال صورة أو استلامها عن طريق الهاتف مع تشغيل الميزة، فسينبثق تحذير يخبر المستخدم أن "الصورة يمكن أن تكون حساسة"، ويسألهم عما إذا كانوا متأكدين من رغبتهم في رؤيتها، ويتضمن ذلك مجموعة من التحذيرات حول حقيقة أن الصور تتضمن رسائل تخبرهم أن "الصور ومقاطع الفيديو العارية يمكن استخدامها لإيذائك" وأن الصور ربما تم التقاطها دون إذن الشخص.
يمكن للمستخدمين بعد ذلك اختيار إبقاء الصورة ضبابية دون النظر إليها، أو الحصول على مزيد من المعلومات أو "إرسال رسالة للبالغين" حول ما تم إرساله، وتؤكدآبل أنه لن يتم تنبيه الوالدين أو مقدمي الرعاية دون موافقة الطفل.
وأثبتت ميزات حماية الطفل الجديدة من آبلأنها مثيرة للجدل منذ الإعلان عنها لأول مرة في أغسطس، وأجرت آبلبعض التعديلات على طريقة عمل الميزة منذ إعلانها الأولي، وتقول إنها مصممة للحفاظ على خصوصية الشباب.
تم الإعلان عنه أيضًا جنبًا إلى جنب مع أداة أخرى من شأنها مسح صور الجميع إذا تم تحميلها للتخزين في iCloud ، والبحث عن صور معروفة للاعتداء الجنسي على الأطفال.
بعد الإعلان عنها، قوبلت بمخاوف من إمكانية استخدامها لأغراض أخرى مثل القمع السياسي، وأعلنت شركةآبل أنها ستتوقف مؤقتًا عن الطرح حتى تجمع المزيد من التعليقات.