التحيز الخوارزمي في الذكاء الإصطناعي

  • من يحدد قيم الذكاء الإصطناعي
  • إتجاه العالم نحو أنظمة الذكاء الإصطناعي
  • أمثلة على التحيزات الخوارزمية
  • أسباب تحيز خوارزميات الذكاء الإصطناعي
  • تضخيم التحيزات البشرية التاريخية في نماذج الذكاء الاصطناعي
  • تأثير عدم كفاية و تمثيل البيانات في التحيز الخوارزمي

من يحدد قيم الذكاء الإصطناعي

في ظل انتشار تقنيات الذكاء الاصطناعي و برامجه و ادخالها في حياتنا بشكل مباشر او غير مباشر يجب أن نكون على علم بالخطورة الكبيرة للذكاء الاصطناعي و يجب علينا أن نحطات منه حتى لا نقع بعواقب وخيمه جداً تودي بنا إلى انحدار بلا قاع فأرجوا الى من يعملون في هذا المجال ان يأخذوا الموضوع بجدية.

لا يمكن لشخص أن يكتب خوارزمية تتناسب مع ثقافته الغربية و من ثم يأتي مبرمج عربي على سبيل المثال و يطبقها كما هي في برامج يستخدمها الإنسان العربي الشرقي الذي تختلف بيئته اختلاف تاماً عن بيئة الغربي. لا يجب فرض هذه الخوارزميات سواء بشكل مباشر أو غير مباشر على البيئات التي تختلف معها في الثقافة و المعايير و الدين.

أقتبس قول العالم الفرنسي و المفكر السياسي أوليفييه روا بقوله "بأن الغرب وحده يملك صلاحية تحديد القيم"، و الأسئلة الجوهرية التي أوجهها لكم:

  1. بأي حق أصبح العقل الغربي يحدد قيم المجتمعات و الثقافات في العالم؟!
  2. هل تصدق الآلة أم الانسان؟!

من وجهتي نظري، أرى الكثير يصدق الآلة على الإنسان ليس لأن الإنسان كاذب بل أصبح عقل الإنسان مبرمج و معود على ذلك فمن في هذه الأيام يكذب محرك البحث جوجل حتى و لو كانت معلوماته خاطئة!!

إتجاه العالم نحو أنظمة الذكاء الإصطناعي

يتجه العالم بشكل متزايد جدا نحو أنظمة الذكاء الاصطناعي و خوارزميات التعلم الآلي لأتمتة عمليات صنع القرار في شتى الأعمال البسيطة و المعقدة كما يؤثر الذكاء الإصطناعي على الديمقراطية و الحوكمة و نحن سنختص و نركز على الخوارزميات التي تستخلص استنتاجات من البيانات المتعلقة بالأشخاص بما في ذلك هوياتهم و سماتهم الديموغرافية و تفضيلاتهم و سلوكياتهم المستقبلية المحتملة و بكل شيء مرتبط بهم.

تستغل الخوارزميات كميات هائلة من البيانات الكلية و الجزئية للتأثير على القرارات التي تؤثر على الأشخاص في مجموعة من المهام بدءا من تقديم توصيات الأفلام إلى مساعدة البنوك في تحديد الجدارة الإئتمانية للأفراد.

في عالم ما قبل الخوارزميات كان البشر و المؤسسات يتخذون القرارات التوظيف و الاعلان و إصدار الاحكام الجنائية و القروض بقرارات بشرية و غالباً ما كانت هذه القرارات خاضعة لقوانين فيدرالية و ولائية و محلية تنظّم عمليات صنع القرار من حيث الانصاف و الشفافية. أما اليوم فتتخذ هذه القرارات الخوارزميات وتعتمد الخوارزميات على مجموعات بيانات متعددة او بيانات تدريب تحدد المخرجات الصحيحة بناء على بعض الأشخاص أو الأشياء و من بيانات هذه التدريب تتعلم الخوارزميات نموذجا يمكن تطبيقه على أشخاص أو أشياء أخرى و تقدم تنبؤات حول المخرجات الجديدة. و مع ذلك و لأن طريقة التعامل مع الأشخاص و الأشياء المشابهة في المواقف تحصل بشكل مختلف فقد بدأت الأبحاث تكشف عن بعض التطبيقات و التدريبات على الخوارزميات المقلقة جداً التي لا ترقى فيها عملية اتخاذ القرارات الى مستوى عادل و حازم و بناءاً على ذلك تخاطر بعض الخوارزميات بتكرار التحيزات البشرية بل و تضخيمها لا سيما تلك التي تؤثر على الفئات المحمية. على سبيل المثال قد تسفر تقييمات المخاطر التي يستخدمها القضات لتحديد الكفالة أو العقوبة عن استنتاجات غير صحيحة مما تؤدي إلى آثار تراكمية كبيرة على فئات معينة مثل فرض عقوبات سجن أطول أو كفالات أعلى على الأشخاص من ذوي بشرة معينة، في هذا المثال المهم جداً يولد القرار تحيزاَ و هو مصطلح نعرفه على نطاق واسع لأنه يتعلق بالنتائج التي تكون أقل ملاءمة بشكل منهجي للأفراد داخل مجموعة معينة و حيث لا يوجد فرق ذي صلة بين المجموعات يبرر مثل هذه الاضرار. يمكن أن ينشأ التحيز في الخوارزميات من بيانات تدريب غير تمثيلية أو غير متكاملة أو الإعتماد على معلومات خاطئة تعكس عدم المساواة التاريخية.

إذا تركت الخوارزميات المتحيزة دون رادع، فقد تؤدي الى قرارات يمكن ان يكون لها تأثير جماعي و متباين عل مجموعات معينة من الأشخاص حتى بدون نية المبرمج للتمييز، ان استكشاف العواقب المقصودة وغير المقصودة للخوارزميات ضروري وفي الوقت المناسب لا سيما وان السياسات العامة الحالية قد لا تكون كافية لتحديد اثار المستهلكين وتخفيفها ومعالجتها.

أمثلة على التحيزات الخوارزمية

يمكن أن يظهر التحيز الخوارزمي بعدة طرق و بدرجات متفاوتة من العواقب على مجموعة من المواضيع. ضع في اعتبارك الأمثلة التالية، التي توضح مجموعة من الأسباب و الآثار التي إما تطبق عن غير قصد معاملة مختلفة على المجموعات أو تولد عمداً تأثيراُ متبايناُ عليها.


1- التحيز في أدوات التوظيف عبر الإنترنت

عملت شركة أمازون، و هي عملاق التجزئة و التكنولوجيا، على تطوير خوارزمية توظيف قائمة على الذكاء الاصطناعي بهدف أتمتة عملية فحص السير الذاتية وت قييم المرشحين للمناصب التقنية، مثل مهندسي البرمجيات، بهدف القضاء على التحيز البشري.

عام 2015، اكتشف المهندسون أن الخوارزمية طورت تحيزاً منهجياً ضد النساء. كان السبب الرئيسي لذلك هو أن الخوارزمية تم تدريبها على بيانات تراكمية من السير الذاتية المُقدمة إلى أمازون على مدار عشر سنوات سابقة، و كانت هذه البيانات في الغالب من الذكور، مما عكس الهيمنة الذكورية التاريخية على قطاع التكنولوجيا في الشركة.

نتيجة لذلك، تعلمت الخوارزمية أن المرشحين الذكور هم المعيار الأمثل للنجاح. و قد أدى هذا "التعلم" إلى:

  • معاقبة أي سيرة ذاتية تتضمن كلمة "نساء" كما في عبارات مثل: "كابتن فريق كرة القدم النسائي" أو "نادي الشطرنج النسائي".
  • تخفيض تقييم السير الذاتية للخريجات من الكليات و الجامعات المخصصة للفتيات فقط.
  • ميل الخوارزمية إلى تفضيل السير الذاتية التي تحتوي على أنماط كلمات و جُمل أكثر شيوعاً في سير الذكور.

حاولت أمازون تعديل الخوارزمية لجعلها محايدة جندرياً، لكنها لم تستطع ضمان خلوها من التحيز بشكل موثوق، مما دفع الشركة في نهاية المطاف إلى إلغاء المشروع و التوقف عن استخدام الأداة. و قد أوضحت أمازون لاحقاً أن هذه الأداة لم تُستخدم من قبل مسؤولي التوظيف لتقييم المرشحين بشكل نهائي، بل كانت أداة تجريبية.


2- التحيز في ارتباطات الكلمات

لإثبات كيفية التقاط نماذج الذكاء الاصطناعي للتحيزات الاجتماعية الموجودة، استخدم باحثون من جامعة برينستون و جامعة باث نموذجاً جاهزاً للتعلم الآلي يُعرف باسم Word2Vec، و الذي يحلل مليارات من الكلمات في النصوص المتاحة عبر الإنترنت.

كشفت الدراسة أن الخوارزمية، من خلال تحليلها لارتباطات الكلمات، قد التقطت و عززت التحيزات العرقية و الجنسية الموجودة في بيانات التدريب التي صاغها البشر. على سبيل المثال، وجد الباحثون أن:

  • التحيز الجنسني كانت الكلمات مثل "امرأة" و "فتاة" ترتبط بشكل أقوى بكلمات متعلقة بالفنون أو العلوم الإنسانية، بينما كانت الكلمات مثل "رجل" و "فتى" ترتبط بكلمات مثل الرياضيات و العلوم و الهندسة.
  • التحيز العرقي كانت الأسماء الشائعة لدى البيض الأمريكيين (مثل "Amy" و "Brad") ترتبط بشكل إيجابي مع كلمات مثل "ممتع" أو "سار" أو مفاهيم سارة، بينما كانت الأسماء الشائعة لدى الأمريكيين من أصل أفريقي (مثل "Latoya" و "Darnell") ترتبط بكلمات ذات دلالة سلبية أو مفاهيم غير سارة.

هذه الارتباطات المتحيزة، المكتسبة من البيانات النصية البشرية، تحمل خطراً تراكمياً إذا ما تم دمجها في تطبيقات الذكاء الاصطناعي اليومية، مثل خوارزميات تصنيف محركات البحث أو أدوات الإكمال التلقائي للنصوص، مما يؤدي إلى تأبيد التحيزات الاجتماعية السلبية أو تضخيمها بدلاً من إزالتها.


3- التحيز في تقنية التعرف على الوجه

كشفت دراسة رائدة أجرتها جوي بولامويني (Joy Buolamwini) من معهد ماساتشوستس للتكنولوجيا (MIT) بالتعاون مع الباحث تيميت جيبرو (Timnit Gebru)، أنظمة التعرف على الوجه المتاحة تجارياً تُظهر تحيزاً كبيراً ضد النساء ذوات البشرة الداكنة.

استُخدم في هذا البحث المعروف باسم "Gender Shades"، ثلاثة منتجات تجارية للتعرف على الوجه. كان أحد الأسباب الجذرية لهذا التحيز هو أن غالبية مجموعات البيانات المُستخدمة لتدريب هذه الخوارزميات كانت تتكون من:

  • أكثر من 77% من الذكور.
  • أكثر من 86% من البيض.

أظهرت الخوارزميات دقة عالية في تحديد جنس الرجال البيض، حيث وصلت نسبة الدقة إلى حوالي 99%.

ومع ذلك، تدهورت الدقة بشكل حاد عند التعامل مع الأفراد ذوي البشرة الداكنة، و خاصة النساء. حيث ارتفعت معدلات الخطأ في تحديد جنس النساء ذوات البشرة الداكنة بشكل كبير:

  • في حالة الرجال ذوي البشرة الفاتحة (البيضاء)، كانت معدلات الخطأ أقل من 1%.
  • بالنسبة للنساء ذوات البشرة الداكنة، ارتفعت معدلات الخطأ إلى أكثر من 20.8% في أحد المنتجات، و إلى 34.4% في المنتجين الآخرين.

أدت هذه النتائج المثيرة للقلق، التي أثبتت وجود تحيز منهجي، إلى استجابة من بعض الشركات. و على إثرها، التزمت كل من IBM و Microsoft باتخاذ خطوات لتحسين دقة خوارزمياتها و تقليل التحيز في التعرف على الوجوه ذات البشرة الداكنة.


4- التحيز في خوارزميات العدالة الجنائية

تُستخدم خوارزميات الذكاء الاصطناعي على نحو متزايد في نظام العدالة الجنائية، لا سيما لتقييم خطر إعادة ارتكاب الجريمة (Recidivism Risk) من قبل المتهمين. أشهر مثال على هذه الأدوات هو نظام COMPAS (نظام إدارة المساءلة التصحيحية والتوقيف)، الذي طورته شركة نورث بوينت (Northpointe) واستُخدم في محاكم الولايات المتحدة لتوجيه قرارات مثل الإفراج بكفالة أو إصدار الأحكام.

في عام 2016، أجرى موقع التحقيقات الصحفية ProPublica تحليلًا شاملًا لنتائج نظام COMPAS في مقاطعة بروارد بولاية فلوريدا، و كشف عن تحيز عرقي منهجي داخل الخوارزمية:

  • المعدل العالي للتصنيف الخاطئ للإيجابية (False Positives): كان نظام COMPAS يصنِّف المدعى عليهم من الأفارقة الأمريكيين على أنهم أكثر عرضة لإعادة ارتكاب الجريمة بنسبة مضاعفة تقريباً مقارنة بالبيض، حتى عندما لم يرتكبوا جرائم لاحقاً.
  • المعدل العالي للتصنيف الخاطئ للسلبية (False Negatives): في المقابل، كان النظام يصنِّف المدعى عليهم البيض على أنهم أقل عرضة لإعادة ارتكاب الجريمة بشكل خاطئ أكثر من المدعى عليهم السود.

هذا التباين يعني أن الخوارزمية كانت تجعل السود يبدون أكثر خطورة مما هم عليه فعلاً، بينما تجعل البيض يبدون أقل خطورة. و قد نشأ هذا التحيز نتيجة لتدريب النظام على بيانات تاريخية تعكس بالفعل التحيز البشري في سياسات الاعتقال و الملاحقة القضائية السابقة، مما أدى إلى تأبيد و تضخيم التفاوتات العرقية الموجودة بالفعل في النظام القضائي.

أسباب تحيز خوارزميات الذكاء الإصطناعي

يُشير الباحثان سولون باروكاس (Solon Barocas) و كريستيان سيلبست (Kristian Selbst) إلى أن التحيز يمكن أن يتسرب إلى مشاريع الذكاء الاصطناعي في جميع مراحل دورة المشروع. ويحدث ذلك من خلال عدة سُبُل، منها:

  • تحديد المشكلة المراد حلها بطرق تؤثر على مجموعات اجتماعية مختلفة بشكل غير متساوٍ.
  • الفشل في التعرف على التحيزات الإحصائية الكامنة في البيانات أو معالجتها.
  • إعادة إنتاج أو تضخيم التحيز التاريخي الموجود مسبقاً في المجتمع.
  • الاعتماد على مجموعة غير كافية أو غير شاملة من العوامل و المتغيرات.

ركز النقاش بين الخبراء بشكل خاص على أن عيوب البيانات هي أحد المصادر الأكثر شيوعاً و خطورة للتحيز الخوارزمي. في هذا السياق، صرّحت لوسي فاسرمان (Lucy Vasserman) من جوجل (Google): "البيانات المعيبة مشكلة كبيرة... خاصة بالنسبة للمجموعات التي تعمل الشركات بجد لحمايتها من الضرر.

بالنظر إلى العديد من الأسباب المحتملة، يمكن تركيز الاهتمام على مصدرين رئيسيين للتحيز في البيانات التدريبية:

  1. التحيزات البشرية والتاريخية: حيث تعكس البيانات الأنماط التمييزية والتفاوتات التي مارسها البشر تاريخيًا في المجتمع (مثل التحيز في التوظيف أو الأحكام القضائية).
  2. البيانات غير المكتملة أو غير التمثيلية: ويحدث هذا عندما تكون مجموعة البيانات المُستخدمة لتدريب النموذج لا تُمثل بشكل كافٍ أو دقيق جميع المجموعات السكانية التي سيُستخدم عليها النظام لاحقًا (مثل نقص تمثيل الإناث أو الأقليات العرقية في بيانات التدريب).

تضخيم التحيزات البشرية التاريخية في نماذج الذكاء الاصطناعي

تنشأ التحيزات البشرية التاريخية من آراء وتصرفات مجتمعية منتشرة، وغالبًا ما تكون عميقة الجذور، ضد مجموعات معينة. عندما تُستخدم البيانات الناتجة عن هذه التصرفات لتدريب نماذج الكمبيوتر، فإنها تؤدي إلى تكاثر وتضخيم هذه التحيزات بشكل غير مقصود.


أمثلة على التحيز المتضخم

  • خوارزمية COMPAS (العدالة الجنائية) إذا كانت البيانات التاريخية تُظهر ارتفاعاً في معدلات اعتقال و سجن الأمريكيين من أصل أفريقي في الولايات المتحدة، بسبب العنصرية الهيكلية، أو التفاوت في ممارسات الشرطة، أو غيرها من أشكال عدم المساواة في نظام العدالة الجنائية؛ فإن خوارزمية COMPAS تلتقط هذه الأنماط. و نتيجة لذلك، تستخدم الخوارزمية هذه الحقائق التاريخية لتقديم تنبؤات منحازة حول خطر إعادة ارتكاب الجريمة، مما يؤدي إلى تكرار نفس الأخطاء الإنسانية و التمييز في إصدار الأحكام، و تصنيف الأقليات على أنهم أكثر خطورة بشكل غير عادل.
  • خوارزمية التوظيف في أمازون كشفت هذه الخوارزمية عن مسار مماثل، حيث اعتبرت البيانات التاريخية التي يغلب عليها الذكور أن الرجال هم المعيار الضمني "للياقة" المهنية في المجالات التقنية. أدى هذا إلى خفض تقييم المتقدمات وسماتهن، و إلغاء أهليتهن بشكل غير عادل.

تجد هذه الحقائق التاريخية طريقها إلى تطوير الخوارزمية و تنفيذها، و تتفاقم حدتها في كثير من الأحيان بسبب نقص التنوع الموجود في مجالات علوم الحاسوب و علوم البيانات التي تُنشئ هذه الأدوات.


حلقات التغذية الراجعة السلبية

علاوة على ذلك، يمكن أن تستمر التحيزات البشرية وتتعزز في نماذج الذكاء الاصطناعي من خلال حلقات التغذية الراجعة السلبية، حتى دون وعي المستخدم.

فمثلاً، قد يتم استهداف الأمريكيين من أصل أفريقي في المقام الأول بإعلانات خيارات بطاقات الائتمان ذات الفائدة العالية. إذا نقر المستخدم على مثل هذه الإعلانات، ستستمر الخوارزمية في تغذيته بالمزيد منها، دون أن تقدم له أي اقتراحات مضادة للواقع (Counterfactuals)، مثل خيارات الائتمان ذات الفائدة المنخفضة التي قد يكون مؤهلاً و يفضلها.

في هذه الحالة، يمنع النموذج المستخدم من اكتشاف بدائل أفضل، مما يعزز و يديم تحيز الخوارزمية بمرور الوقت. و لذلك، من الضروري لمصممي الخوارزميات و مشغليها مراقبة هذه الحلقات السلبية المحتملة و تصحيحها لضمان العدالة.

تأثير عدم كفاية و تمثيل البيانات في التحيز الخوارزمي

يُعد نقص بيانات التدريب أو عدم كفايتها سببًا رئيسيًا آخر للتحيز الخوارزمي. إذا كانت البيانات المستخدمة لتدريب نموذج الذكاء الاصطناعي تُمثّل مجموعات معينة من الأشخاص أكثر من غيرها، فقد تكون التنبؤات والقرارات الناتجة عن النموذج أسوأ بشكل منهجي بالنسبة للمجموعات غير الممثلة أو الممثلة تمثيلاً ناقصًا.


نقص التمثيل (Underrepresentation)

برز مثال على ذلك هو نتائج بحث جوي بولامويني في دراسة "Gender Shades" حول التعرف على الوجه. كان الأداء الضعيف للخوارزميات في التعرف على الوجوه ذات البشرة الداكنة يرجع بشكل كبير إلى نقص التمثيل الإحصائي لهذه الوجوه في مجموعات بيانات التدريب. كان النموذج مُدربًا على التقاط ملامح الوجه (مثل المسافة بين العينين أو اختلافات لون البشرة) لتحديد الجنس، لكن بما أن الوجوه الفاتحة كانت هي الأكثر تمثيلاً، لم تكن الملامح التي تعلمتها الخوارزمية متنوعة أو موثوقة بما يكفي للتمييز بدقة في أصحاب البشرة الداكنة، مما أدى إلى ارتفاع معدلات الخطأ، ووصولها إلى حد تحديد النساء ذوات البشرة الداكنة بشكل خاطئ على أنهن ذكور.

في هذا الصدد، جادل الباحثون بأن الافتقار إلى التنوع بين المبرمجين و المصممين الذين يُنشئون عينات التدريب غالباً ما يساهم في التمثيل الناقص لمجموعات أو سمات مادية معينة. و قد تمكنت بولامويني من كشف هذا التحيز عبر صرامتها في اختبار و تقييم البرامج التجارية على مجموعة بيانات أكثر تنوعاً، و بالتالي تصحيح نقص التنوع في عيناتهم الخاصة.


الإفراط في التمثيل (Overrepresentation)

على النقيض من ذلك، يمكن أن يؤدي الإفراط في التمثيل لمجموعة معينة داخل البيانات إلى تحريف القرار نحو نتيجة معينة، مما يخلق شكلاً آخر من أشكال التحيز.

على سبيل المثال، وجدت دراسة أجراها باحثون في جامعة جورج تاون أن الأمريكيين من أصل أفريقي كانوا أكثر عرضة للتمييز في أنظمة التعرف على الوجه التي تستخدمها سلطات إنفاذ القانون. كان السبب الجذري لهذا التحيز هو إفراط تمثيلهم في قواعد بيانات صور الاعتقال (لقطات الشرطة). هذا الإفراط في التمثيل يعني أن وجوه الأمريكيين من أصل أفريقي كانت لديها فرص أكبر بكثير للمطابقة الخاطئة (أي مطابقتها بشكل غير صحيح مع شخص آخر في قاعدة البيانات)، مما أدى إلى تأثير متحيز في نظام العدالة الجنائية.

بالتالي، سواء كان التحيز ناتجاً عن نقص في البيانات أو إفراط فيها، فإن النتيجة النهائية هي نظام خوارزمي يعمل بشكل مختلف و أقل دقة بالنسبة لبعض المجموعات مقارنة بالبعض الآخر.

آخر تحديث في 03-10-2025

Ibrahim Al-Taamari

شغوف بتقاطع الذكاء الاصطناعي مع الروبوتات، ومحترف متخصص في هذا المجال بعد حصولي على دبلوم متقدم. عززت معرفتي الأكاديمية بسلسلة من الدورات البرمجية المتخصصة التي صقلت مهاراتي في لغات C++ و Python و Dart و Kotlin، إلى جانب إتقاني لبرامج هندسية وتحليلية هامة مثل MATLAB و AutoCAD. لدي خبرة عملية قوية اكتسبتها من خلال تنفيذ مشاريع متعددة في مجالي التعلم الآلي والتعلم العميق. أركز حاليًا على تطبيق هذه الخبرات المتكاملة في تطوير أنظمة ذكية وحلول برمجية فعالة ومبتكرة.

www.instagram.com/whispervoidxai/

تعليقات 6

أضف تعليق

يجب تسجيل الدخول حتى تتمكن من إضافة تعليق أو رد.