العلوم التطبيقيةتكنولوجيا

أنظمة التعرف إلى الوجوه أداة من أدوات التمييز العنصري .. كيف ؟

ألقت شرطة ديترويت القبض على جوليان بورتشاك ويليامز خطأً في يناير 2020 بسبب حادثة سرقة وقعت في متجر قبل سنتين. لم تكن لويليامز علاقة بالحادثة، ولكن على الرغم من ذلك عرفه نظام التعرف إلى الوجوه الذي تستخدمه شرطة ولاية ميتشيغان على أنه الشخص غير واضح الملامح الموجود في المقطع الذي صورته كاميرات المحل الأمنية التي أظهرت رجلًا أمريكيًا من أصل إفريقي يسرق ساعات بقيمة 3800 دولار أمريكي.

رُدّت الدعوى بعد أسبوعين بطلب من المدّعي. ولكن استنادًا إلى ذلك التطابق الخاطئ، قبضت الشرطة على ويليامز وكبّلته بالأصفاد أمام عائلته وأجبرته على تقديم صورة جنائية تعريفية وبصمات أصابعه وعيّنة من حمضه النووي، كما حققت معه وحبسته ليلة كاملة.

يرجّح الخبراء أن ويليامز ليس وحيدًا وأن غيره قد تعرضوا لأوجه مشابهة من الظلم. يؤكد الجدل القائم حول استخدام الشرطة لتقنيات شركة Clearview AI، على المخاطر المتعلقة بالخصوصية الناجمة عن استخدام تقنيات التعرف إلى الوجوه. ولكن من المهم استيعاب أن جميعنا لا يتعرض لنفس درجة المخاطرة.

تدريب خوارزميات عنصرية

تقنيات التعرف إلى الوجوه التي تُدرّب وتضبّط على الوجوه البيضاء، هي بطبيعة الحال تخطئ في التعرف إلى الأشخاص من الإثنيات غير البيضاء وتصنيفهم بشكل منهجي: تظهر كثير من الدراسات أن تقنيات التعرف إلى الوجوه “قاصرة ومتحيزة، وبها معدل أخطاء أكبر عندما تستخدم على غير البيض.

وهذا يقوّض فردانية وإنسانية الأشخاص من العرقيات غير البيضاء والذين تزيد احتمالية تعريفهم بشكل خاطئ على أنهم مجرمون. وتعكس هذه التقنية والأخطاء التي ترتكبها في التعرف إلى الأشخاص، الانقسامات الاجتماعية المبنية على العنصرية والتحيز الجنسي والاستعمار الاستيطاني  وغيرها من أشكال الاضطهاد المتداخلة وترسّخها.

 

كيف تصنّف التقنية المستخدمين

حذر الباحث أوسكار جاندي في كتابه المفصلي “The Panoptic Sort” أو “النوع شامل الإراءة” الصادر عام 1993، من “التكنولوجيا المعقدة التي تشمل جمع ومعالجة ومشاركة معلومات عن أفراد وجماعات مصدرها حياتهم اليومية … وتستخدم هذه المعلومات في التنسيق والتحكم بحصولهم على السلع والخدمات التي تحدد نمط حياتهم في اقتصاد رأسمالي معاصر.” ويستخدم موظفو إنفاذ القانون/ الأجهزة الأمنية هذه التكنولوجيا لكشف المشتبه بهم من بين عامة الناس، وتستخدمه المؤسسات الخاصة لتحديد ما إذا كنا سنحصل على أشياء مثل الخدمات المصرفية والوظائف.

وتنبأ جاندي محذرًا، أن هذا “الفرز المعرفي”، إذا تُرك دون رقابة،  سيجني على أفراد المجتمعات الساعية خلف المساواة -كالمجموعات العرقية والمجموعات المتضررة اقتصاديًا واجتماعيًا- من ناحية ما سيُخصص لهم وكيف سيتمكنون من فهم أنفسهم.

نعيش الآن، بعد حوالي 25 سنة، نوعًا شامل الإراءة خارجًا عن السيطرة. والأمثلة على آثاره السلبية على المجموعات الساعية خلف المساواة تتزايد، وكذلك حوادث التعريف الخاطئ كالذي حدث مع ويليامز.

التحيز القائم

هذا التوزيع المُستَخدِم للخوارزميات يكتسح الجوانب الأساسية في الحياة اليومية، مما يؤدي على إثره إلى عنف مباشر وهيكلي.

العنف المباشر الذي تعرض له ويليامز يتضح فورًا في الوقائع المحيطة باعتقاله واحتجازه، والضرر الذي تعرض له كفرد واضح ويمكن تتبعه إلى تصرفات الشرطة التي اختارت الاعتماد على “مطابقة” التقنية لتنفيذ الاعتقال. والأكثر غدرًا هو العنف الهيكلي الذي ترتكبه تقنية التعرف إلى الوجوه وغيرها من التقنيات الرقمية التي تقيّم وتطابق وتصنف الأفراد بطرق تزيد من أنماط التمييز القائمة.

أضرار العنف الهيكلي أقل جلاء وأقل مباشرة، وتؤذي المجموعات الساعية خلف المساواة عن طريق منعهم بصورة ممنهجة من الحصول على أي نفوذ أو موارد أو فرص. وفي الوقت ذاته، تزيد من الخطر والأذى المباشرين على أفراد تلك المجموعات بعينهم.

تستخدم أنظمة حفظ الأمن التنبؤية معالجة خوارزمية للبيانات التاريخية لتنبؤ أين ومتى يرجح وقوع جرائم جديدة، وبالتالي توزع موارد الشرطة بناء على ذلك وتضمّن أنظمة مراقبة وترصد معززة، غالبًا في الأحياء الأقل دخلًا والأحياء التي تقطنها أغلبية عرقية غير بيضاء. وهذا يزيد من فرص رصد أي نشاط إجرامي -بما فيها الأنشطة الإجرامية الأقل جدية والتي لا تحفز ردًا أمنيًا في الأحوال العادية- ومعاقبة مرتكبيه. وهذا في نهاية المطاف يحدّ من الفرص التي يمكن أن يحصل عليها الأفراد الذين يعيشون في تلك البيئة.

وتتزايد الشواهد على عدم وجود مساواة في القطاعات الأخرى باستمرار. احتج مئات الطلبة في المملكة المتحدة في 16/8 على النتائج الكارثية لـ Ofqual، وهي خوارزميات قاصرة استخدمتها الحكومة البريطانية لتقرير مَن مِن الطلبة سيتأهل للدراسة الجامعية. وفي عام 2019 ساعدت خدمة الإعلانات المستهدفة التابعة لفيسبوك عدة جهات توظيف حكومية وخاصة على استبعاد عدة أشخاص من الحصول على إعلانات توظيف بناء على عمرهم وجنسهم. ووثقت أبحاث أجرتها المنظمة الصحفية ProPublica تمييزًا قائمًا على العرق في أسعار المنتجات المعروضة على الإنترنت. وأن محركات البحث غالبًا ما تأتي بنتائج عنصرية ومتحيزة جنسيًا.

إدامة الاضطهاد

هذه النتائج مهمة لأنها تُديم وتعمّق أوجه عدم المساواة القائمة بناء على صفات مثل العرق والجنس والعمر. كما أنها مهمة لأن لها تأثيرًا عميقًا على معرفتنا لأنفسنا والعالم من حولنا، أحيانًا عن طريق اختيار مسبق للمعلومات التي نتلقاها بطرق تعزز التصورات النمطية المسبقة. والشركات التقنية بأنفسها تعترف بوجود حاجة ملحة لإيقاف أوجه إدامة الخوارزميات للتمييز.

وحتى الآن فإن مدى نجاح التحقيقات المخصوصة التي تجريها الشركات التقنية بأنفسها ظلت متضاربة. في بعض الأحيان، تسحب الشركات المسؤولة عن إنتاج بعض الأنظمة التمييزية أنظمتها من السوق، وهو ما فعلته Clearview AI عندما أعلنت أنها ستتوقف عن توفير تقنية التعرف على الوجوه في كندا. ولكن هذه القرارات تنتج غالبًا عن السلطات الرقابية أو الاحتجاجات العامة، فقط بعد تعرض بعض أفراد من المجتمعات الساعية خلف المساواة للأذى.

حان وقت إعطاء مؤسساتنا الرقابية الأدوات التي تحتاجها للتعامل مع المشكلة. مجرد حماية بسيطة للخصوصية تتوقف على الحصول على موافقة فردية على جمع البيانات وإعادة استخدام الشركات لها لا يمكن فصلها عن النتائج التمييزية لذلك الاستخدام. بالأخص في عصر لا يفهم فيه معظمنا (بما في ذلك الشركات التقنية) ما تفعله الخوارزميات كليًا ولا سبب إنتاجها لنتائج محددة على وجه الخصوص.

الخصوصية حق إنساني

ويتضمن جزء من حل المشكلة هدم الصوامع التشريعية الحالية التي تتعامل مع حقوق الإنسان والخصوصية على أنهن شيئان منفصلان. الاستناد إلى نموذج حماية البيانات القائم على الموافقة يتعارض مع المبدأ الأساسي أن الخصوصية والمساواة حقّان إنسانيّان لا يمكن المساومة عليهما بحال.

حتى ميثاق كندا الرقمي -الذي سعت الحكومة الفدرالية من خلاله إلى الاستجابة لقصور وضع البيئة الرقمية الحالي- يتمسك بهذه التمييزات المفاهيمية. حيث يتعامل مع الكراهية والتطرف، والتحكم والموافقة، والديموقراطية القوية على أنها فئات منفصلة.

لنتمكن من الحديث عن التمييز الخوارزمي يجب أن نعرّف ونؤطّر الخصوصية والمساواة على أنهما حقّان إنسانيان. ويجب علينا إيجاد بنية تحتية تكون خبيرة بالمفهومين ومراعية لهما بالتساوي. وبدون هذه الجهود سيستمر تحيز الذكاء الاصطناعي التمييزي في التخفي وراء غطاء العلوم والرياضيات المُمَوَّه، وستتضاعف على الأرجح المهازل المخزية كالتي تعرض لها ويليامز.


بقلم: جين بيلي و جاكلين بوركيل و فاليري ستيفز | ترجمة: آلاء الخليلية | تدقيق: مريم الريامية | المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى