كشفت دراسة أمريكية جديدة، أن أنظمة التعرف إلى الوجوه ليست أهلا للثقة على الدوام، خصوصا مع الأشخاص غير البيض، ما يعزز الشكوك بشأن أهمية استخدام هذه التكنولوجيا المعتمدة على الذكاء الاصطناعي.
وأشارت الدراسة التي حلل معدوها عشرات الخوارزميات، إلى أن "نظام التعرف إلى الوجوه يقدم تعريفا خاطئا للأشخاص الآسيويين أو السود أكثر بمئة مرة من أولئك البيض".
ورصد الباحثون في معهد "ناشونال إنستيتيوت أوف ستاندردز أند تكنولوجي" التابع للحكومة الأمريكية، خوارزميتين كانتا تعرّفان خطأ عن جنس النساء السوداوات في 35 بالمئة من الحالات.
وتُستخدم تقنية التعرف إلى الوجوه على نطاق واسع من جانب السلطات وقوات الأمن والمطارات والمصارف والمتاجر والمدارس، كما أنها تستخدم في فتح الهواتف الذكية.
ويحاول ناشطون حقوقيون وباحثون كثر الحد من الاندفاعة الكبيرة في استخدام هذه التقنية، معتبرين أن الخوارزميات تقترف الكثير من الأخطاء وأن بعض الأبرياء قد يجدون أنفسهم في السجن فضلا عن خطر قرصنة قواعد البيانات واستخدامها من جانب مجرمين.
وقد سجلت الخوارزميات المطورة في الولايات المتحدة معدلات خطأ أعلى مع الآسيويين والأمريكيين من السود أو المنتمين إلى قبائل السكان الأصليين، بحسب الدراسة التي أشارت في المقابل إلى أن الخوارزميات المطورة في بلدان آسيوية بدت قادرة على التعرف على وجوه الآسيويين والبيض بدقة.
وقال مدير البحث باتريك غروثر إن "هذا الأمر مشجع لأنه يظهر أن استخدام قاعدة بيانات أكثر تنوعا يتيح تحقيق نتائج أفضل"، إلا أن "الاتحاد الأمريكي للحريات المدنية" (إيه سي أل يو) وهو منظمة حقوقية غير حكومية نافذة، اعتبر أن هذه الدراسة تثبت قبل أي شيء أن هذه التكنولوجيا ليست متطورة بالمقدار الكافي ويتعين تاليا عدم استخدامها.
وقال المحلل في هذه المنظمة جاي ستانلي: "حتى العلماء الحكوميون يؤكدون أن تكنولوجيا المراقبة هذه دونها عيوب ومنحازة"، مضيفا أن "التعرف الخاطئ قد يؤدي إلى تفويت موعد طائرة أو إلى استجوابات بلا نهاية أو وضع على قائمة الأشخاص الواجب مراقبتهم إضافة إلى توترات مع عناصر الشرطة وتوقيفات بلا أساس أو ربما أسوأ".