السبت 23 نوفمبر 2024

عرب وعالم

الذكاء الاصطناعي يتعرف على المشاعر بشكل مثالي

  • 19-4-2021 | 17:01

الذكاء الإصطناعي

طباعة
  • دار الهلال

مثل تقنية التعرف على الوجه تم اتهام نظام التعرف على المشاعر بالتحيز العنصري، فقد أظهرت دراسة أن الأنظمة تقرأ باستمرار وجوه السود على أنها أكثر غضبًا من وجوه الأشخاص البيض، بغض النظر عن تعبير الشخص.

وعلى الرغم من أن دراسة التحيز العنصري في تقنية التعرف على المشاعر صغيرة، إلا أن التحيز العنصري في الأشكال الأخرى للتعرف على الوجه موثق جيدًا.

وبحسب موقع "تيك إكسبلور" التقني تقول ديبورا راجي باحثة الذكاء الاصطناعي إن هناك طريقتين يمكن أن تؤذي بهما هذه التكنولوجيا الناس: "إحدى الطرق هي عندما لا يعمل النظام بحكم وجود معدلات خطأ أعلى للأشخاص الملونين، فإنه يعرضهم لخطر أكبر، والثانية هي عندما يعمل، حيث يكون لديك نظام التعرف على الوجه المثالي، ولكن من السهل استخدامه كسلاح ضد المجتمعات لمضايقتهم".

لذلك، حتى لو كانت تقنية التعرف على الوجه غير متحيزة ودقيقة لجميع الأشخاص، فقد لا تكون عادلة.

ونرى هذه التأثيرات المتباينة عند استخدام تقنية التعرف على الوجه في أنظمة الشرطة والقضاء التي تعتبر تمييزية بالفعل وضارة بالأشخاص ذوي البشرة السمراء.

ويمكن أن تكون التقنيات خطيرة عندما لا تعمل كما ينبغي، ويمكن أن تكون خطيرة أيضًا عندما تعمل بشكل مثالي في عالم غير مثالي.

التحديات التي تثيرها تقنيات التعرف على الوجه والمشاعر ليست لها إجابات سهلة أو واضحة، ويتطلب حل مشكلات هذه الأنظمةالانتقال من أخلاقيات الذكاء الاصطناعي التي تركز على المبادئ المجردة إلى أخلاقيات الذكاء الاصطناعي التي تركز على الممارسة والتأثيرات على حياة الناس.

وعندما يتعلق الأمر بتقنية التعرف على المشاعر، نحتاج إلى دراسة جماعية لعلم العاطفة المثير للجدل والمدمج في هذه الأنظمة وتحليل إمكاناتها للتحيز العنصري.

وعلينا أن نسأل أنفسنا: حتى لو كان من الممكن تصميم نظام لقراءة المشاعر الداخلية للجميع بدقة، فهل نريد مثل هذه المراقبة الحميمة في حياتنا؟

وهذه أسئلة تتطلب دراسات وأبحاث من جهات متخصصة في الذكاء الاصطناعي والعلوم الاجتماعية.

أخبار الساعة

الاكثر قراءة