لماذا نحتاج إلى أخلاقيات الذكاء الاصطناعي ؟
علينا أن نفكر على وجه الدقة في آثار التصنيف وتعلّم الآلة والذكاء الاصطناعي المترتبة على عمليات اتخاذ القرار
في 2017، عرضت كيت كروفورد في ( NIPS مؤتمر نظم معالجة المعلومات العصبية )، حيث أشارت على نحو مقنع إلى أن النظم التحليلية للبيانات المتاحة تُظهر سلوكيات غير مرغوبة كالسلوك التمييزي.
وعلى سبيل المثال، تذكُرُ مقال ProPublica الصحفي الشهير. حيث تناول المقال خوارزميات الشرطة التي تصنف السود على أنهم أكثر احتمالية لارتكاب الجرائم والعودة إليها من جديد. ويعطي المقال أمثلة على نقاط غير عادلة. إذ أُعطيت المرأة السوداء بريشا بوردن نقاطًا أعلى لمعاودة ارتكاب الجرائم على عكس فيرنون براتر وهو رجل أبيض من ذوي السوابق والذي ستستمر إدانته بجرائم جديدة.
وهناك المزيد من الأمثلة المتاحة حول السلوكيات غير المرغوبة في النظم التحليلية؛ فقضية Google-Gorilla أو غوغل غوريلا هي مثال آخر، أو حرمان النساء من الحصول على القروض بعد مرض سرطان الثدي.
وفي حديثها، تتعمق كروفورد في فكرة التحيز. ماذا نعني عندما نقول بأن النظام أو الخوارزمية متحيزة؟ وتفرّق بين الضرر التخصيصي والضرر التمثيلي وتقدِّمُ أداءً باهراً في إظهارها الاختلافات الدقيقة للتحيز في تعلّم الآلة. وإذا لم تشاهدوا الحديث أقترح عليكم فعل ذلك.
وتنهي حديثها قائلة إن التحيز قد يكون نتيجة للتصنيف بشكل عام. التصنيف هو تقنية لتقليص التعقيد البعدي وأن هذه السلوكيات غير المرغوبة تحدث بفعل التصنيف، وأننا الآن في أكبر تجربة للتصنيف في تاريخ البشرية.
ولكن ماذا نعني حقًا عندما نقول بأن النظم قد أخطأت؟ أو أنها أظهرت “سلوكًا غير مرغوب”. ماذا لو كانت فئات سكانية فرعية معينة ممثلة على نحو مفرط أو على نحو غير كافٍ في البيانات. هل يتوجب علينا أن نبذل قصارى جهدنا لتعديل توقعاتنا في الخوارزميات لتحقق نوعًا من المساواة؟ هذا ليس بسؤال تقني، بل هو سؤال أخلاقي معياري.
سيكون من السهل أن نعزي كل أوجه القصور في النظم سواءً إلى البيانات الأساسية أو إلى إخفاق المشغلين في ضبط النظام بطريقة صحيحة. السؤال أعمق من ذلك – ماذا نعني عندما نتحدث عن السلوكيات غير المرغوبة؟ وماذا يعني التحيز الخوارزمي؟
وللرد على هذه الأسئلة، يجب أن تكون لدينا معرفة بالخاطئ والصحيح أو على سبيل المثال: الأخلاقي، وأن تكون لدينا أفكارٌ محددة حول ما يجب فعله، على سبيل المثال: المعياري.
لنفترض مثلا أن البيانات المتاحة تثبت بشكل صحيح أن بعض المجموعات مرتبطة بالمخاطر العالية. ففي هولندا حصلت النساء اللاتي شُخِّصْنَ مسبقًا بمرض سرطان الثدي على أقساط عالية أو حُرِمن من الحصول على الرهون العقارية والقروض. ونشعر بديهيًا بأن الأمر خاطئ، حتى وإن كانت البيانات المتاحة محقة عند افتراضها أنهن يشكلن خطرًا على مانح القرض. إلا أنه سيكون من الخاطئ أن نلقي اللوم على الذكاء الاصطناعي الذي يتعلم من جميع الحالات التاريخية. ولاحظوا أنه ما إن تُحَدَّدُ مشكلات السلوك غير المرغوب سيكون من السهل قمع سلوك النظم هذه.
الأسئلة المعيارية أصعب: هل نلزم مانح القروض بتحمل مخاطر منح الرهون العقارية لهؤلاء النساء؟ إذا أجبتم بنعم، فأنا معكم، ولكن اسألوا أنفسكم عن تبعات هذا الفكر. من يقرر من الذي سيتحمل العبء ؟ النساء؟ مانح القرض؟ أم الحكومات؟ يُحرَمُ الناس من خدمات معينة طوال الوقت – ولا شك أن بعض الأسباب تبدو مريبة من منظور أخلاقي.
التمييز في هذه الحالة هو حاجز معياري أخلاقي رسمته مجموعة محددة في وقت محدد. ما نحتاج لنفكر فيه هو الأخلاقيات وعواقب الاعتماد واسع النطاق على الذكاء الاصطناعي في صيغة أخلاقيات.
وتظهر المشكلات ذاتها في الأعمال؛ حيث يُطلب من علماء البيانات ابتكار نظام للتنبؤ بمقياس: المبيعات، التناقص، الترميز. ولكن وفقًا لأهدافك، فإنّ تنوع النظم واختلافاتها ممكن.
الاختباء وراء الإحصائيات الجنائية أسهل بكثير من الانخراط في حوار حول ما يجب فعله. وتعطي النظم التحليلية ببساطة البيانات بحالتها الراهنة أو ما ستكون عليه دون أن يتخللها تصحيح أخلاقي. ولا يُظهر لنا علم البيانات “ما الجيد” أو “ما ينبغي أن يكون” ولا يساعدنا في معرفة ما الصحيح أو ما يجب علينا فعله.
والأسوأ، أننا نعلم أن العلم ــ والنهج العلمي ــ مليء بالعيوب الجسيمة. وأن ننظر لمشكلات النظام على أنها مشكلات فنية وليست أكثر من ذلك لَهُو أمر خاطئ. فقد تتسبب العيوب في بنية استقصاءاتنا العلمية بنشر بحوث مغلوطة؛ أي أن البحوث التي زعمت العثور على حلٍ لمشكلة ما تبيّن بأنه زائف.
لنتأمل لوهلة التحيز في البحوث. يكون التحيز لحل المشكلات التي يرى العلماء أن لها علاقة إيجابية حقيقية، وهذا يعني أن المشكلات التي لا يرى العلماء أن لها علاقة مماثلة تُجرى فيها بحوث أقل.
لننظر: قدرة إحصائية عشوائية بنسبة 80%. في مجموعة من 1000 تجربة تُثبت فيها على سبيل المثال 100 علاقة إيجابية حقيقية، علينا أن نحدد على نحو صحيح أن 80 من بين 100 لديهم علاقة إيجابية حقيقية.
إلا أننا سنحدد أيضًا 20% من 900 المتبقية كعلاقات إيجابية زائفة أي ما مجموعه 180. وإذا نشرت جميع النتائج الإيجابية سيكون لدينا إجمالي 80 (من العلاقات الإيجابية الحقيقية) إلى 180 (من العلاقات الإيجابية الزائفة). سيكون 30% فقط من البحوث المنشورة “صحيح” فعلًا.
كل هذا ينبغي أن يجعل العلماء في حالة حذر شديد عند استخدام النتائج التقنية لتكون أساس قراراتهم. ومثلما يحب سام هاريس القول؛ ليس الحل للعلوم التي لا تستند إلى أسس سليمة إجراء المزيد من التجارب. ولا يمكننا الاختباء وراء المزيد من التجارب العلمية لمعرفة كيفية التعامل مع الأسئلة الأخلاقية في الذكاء الاصطناعي.
الطريقة الوحيدة التي يمكننا من خلالها التغلب على هذه المشكلات التقنية هي بعدم استخدام الفكر ذاته عندما خلقناها. علينا أن نفكر على وجه التحديد بالأخلاقيات المرتبطة بتطبيق الذكاء الاصطناعي على النطاق العام حيث نستخدم الذكاء الاصطناعي في اتخاذ القرارات المؤتمتة. يجب أن نتحلى بتفكير غير تقني للتغلب على هذه المشكلات.
لذا، نحتاج إلى أخلاقيات للذكاء الاصطناعي.
بقلم: جيروين فان زيلاند | ترجمة: مريم الريامية | تدقيق الترجمة: عهود المخينية | تدقيق لغوي: أفراح السيابية | المصدر