Apple

Apple سوف تفحص iCloud بحثا عن صور تحتوي على عنف ضد الاطفال.

ونحن نعلم أن Apple أنت تهتم كثيرًا بسرية البيانات التي تمر عبر الأجهزة في النظام البيئي وأنها محمية جيدًا من أعين المتطفلين. ومع ذلك ، هذا لا يعني أنه يجب على المستخدمين عدم الانصياع للقواعد المتعلقة بالأخلاق والأخلاق ، ولماذا لا ، بالإنسانية.

Apple أعلنت أنها ستطلق قريبًا تقنية قادرة على مسح جميع الصور المخزنة من قبل المستخدمين في iCloud والتعرف على الصور التي تحتوي على اعتداء جنسي على الأطفال. مواد الاعتداء الجنسي على الأطفال (CSAM).
سيتم إطلاق هذه التكنولوجيا بواسطة Apple قرب نهاية هذا العام ، على الأرجح في إصدار تجريبي ، لعدد قليل من المستخدمين.

إذا كنت تتساءل "أين هي سرية البيانات؟" ، اكتشف أن كل شيء نتلقى المحتوى فيديو / صورة يتم ذلك من خلال بروتوكول مشفر. بالإضافة إلى تخزين البيانات بتنسيق iCloud إنه مشفر ، لكن مقدمي هذه الخدمات لديهم المفتاح لتشفير البيانات. هنا نقول ليس فقط من Apple. تقوم Microsoft و Google وخدمات تخزين البيانات السحابية الأخرى بنفس الشيء.

يمكن فك تشفير البيانات المخزنة والتحقق منها إذا طُلبت في إجراء قانوني أو إذا كانت تنتهك القوانين بشكل صارخ. مثل تلك المتعلقة بأعمال العنف ضد الأطفال والنساء.

للحفاظ على سرية المستخدمين ، تعتمد الشركة على تقنية جديدة تسمى NeuralHash ، والتي ستقوم بمسح الصور ضوئيًا من iCloud وسيحدد تلك التي تحتوي على عنف ضد الأطفال من خلال مقارنتها بصور أخرى في قاعدة بيانات.
إنه يشبه إلى حد ما التعرف على الوجه أو التعرف الذكي على الأشياء والحيوانات والعناصر الأخرى.

ستكون التقنية قادرة على مسح الصور التي تم التقاطها أو نقلها عبر الجهاز والتحقق منها iPhone, iPad أو Mac، حتى لو خضعوا للتغييرات.

Apple سوف تفحص iCloud بحثا عن صور تحتوي على عنف ضد الاطفال.

عن المؤلف

تسلل

يسرني أن أشارك خبراتي مع أجهزة الكمبيوتر والهاتف المحمول وأنظمة التشغيل ، وتطوير مشاريع الويب وتوفير البرامج التعليمية والنصائح المفيدة.
أحب أن "ألعب" iPhone, MacBook Pro, iPadو AirPort Extreme وأنظمة التشغيل macOSو iOS و Android و Windows.

اترك تعليق