اكتشاف "ثغرة عنصرية" بتكنولوجيا التعرف على الوجوه

اثنين, 12/02/2018 - 15:14

بينما تشهد تكنولوجيا التعرف على الوجه تقدما ملحوظا يوما بعد يوم، كشفت دراسة حديثة عن مشكلة يمكن أن تواجه هذه التقنية التي يعتمد عليها بشكل متزايد لا سيما في العمليات الأمنية ومواقع التواصل الاجتماعي والهواتف الذكية.

وبات بإمكان تكنولوجيا التعرف على الوجه حاليا، تمييز ما إذا كان الوجه لرجل أم امرأة.

إلا أن الدراسة التي سلطت عليها الضوء صحيفة "نيويورك تايمز" الأميركية، قالت إن بعض برامج تمييز الوجه تكون أقل دقة مع الوجوه الداكنة، لا سيما إذا كانت لسيدات.

وحسب الدراسة، فإن نسبة الخطأ في التعرف على وجوه السيدات ذوات البشرة الداكنة قد تصل إلى 35 بالمئة، فيما تقترب دقة النتائج من 100 بالمئة مع الرجال من أصحاب البشرة البيضاء.

وقال سوريش فينكاتاسوبرامانيان بروفيسور علوم الكمبيوتر في جامعة أوتاوا الأميركية، إن "الوقت حان للتعرف على دقة هذه الأنظمة ونقاط ضعفها، حتى يمكن الاعتماد عليها اجتماعيا".

وأخطاء برامج تمييز الوجوه لا تؤدي فقط إلى ثغرات تقنية، بل أيضا قد تسبب مشكلات "عنصرية".

وفي عام 2015 على سبيل المثال، اعتذرت شركة "غوغل" بعد خطأ في تطبيق للتعرف على الوجوه تابع للشركة، أدى إلى تمييز وجوه مواطنين أميركيين من أصول أفريقية كـ"غوريلات".

وتقدر إحصاءات أن نحو 117 مليون أميركي بالغ، مسجلون على شبكات التعرف على الوجوه لأسباب أمنية، بينهم عدد كبير جدا من ذوي الأصول الأفريقية.

سكاي نيوز

تصفح أيضا...