وجّهت دراسة حديثة تحذيرًا من استعمال الذكاء الاصطناعي، مشيرة أن نماذجه قد توصي بعلاجات مختلفة للحالة الطبية نفسها بالاستناد فقط إلى السمات الاجتماعية والاقتصادية والسكانية للمريض.
وقام الباحثون بإنشاء ملفات لما يقرب من 30 مريضًا وهميًا مختلفًا وسألوا تسعة نماذج للذكاء الاصطناعي تقدم الرعاية الصحية عن كيفية التعامل مع ألف سيناريو لحالات طارئة مختلفة.
وقال الباحثون في دورية «نيتشر ميديسن» العلمية إن نماذج الذكاء الاصطناعي عدلت في بعض الأحيان القرارات بناء على السمات الشخصية للمرضى، ما أثر في أولوية تلقي الرعاية، وفحوص التشخيص، وأسلوب العلاج، وتقييم الصحة النفسية على الرغم من تطابق التفاصيل السريرية.
وعلى سبيل المثال، أوصى الذكاء الاصطناعي في كثير من الأحيان بإجراء فحوص تشخيصية متقدمة مثل الأشعة المقطعية أو التصوير بالرنين المغناطيسي للمرضى من أصحاب الدخل المرتفع، في حين نصح المرضى محدودي الدخل في كثير من الأحيان بعدم الخضوع لمزيد من الفحوص، وهو ما يحاكي إلى حد ما عدم المساواة في الرعاية الصحية في الواقع.
ووجد الباحثون أن المشكلات ظهرت في كل من نماذج الذكاء الاصطناعي ذات الملكية الخاصة ومفتوحة المصدر.
وقال الطبيب جيريش نادكارني بكلية إيكان للطب في نيويورك والذي شارك في قيادة فريق الدراسة في بيان «لدى الذكاء الاصطناعي القدرة على إحداث ثورة في الرعاية الصحية، لكن إذا تم تطويره واستخدامه بشكل مسؤول فقط».
وذكر الطبيب إيال كلانج من كلية إيكان والذي شارك في الدراسة «من خلال تحديد المجالات التي قد تؤدي فيها هذه النماذج إلى التحيز، يمكننا العمل على تحسين تصميمها، وتعزيز الرقابة، وبناء أنظمة تضمن أن يتمتع المرضى بالرعاية الآمنة الفعالة».