كشفت دراسة جديدة عن مخاطر أمنية تحيط بخدمة ChatGPT Health التابعة لشركة أوبن إيه أي، مؤكدة فشل نظام الذكاء الاصطناعي في تقديم توصيات دقيقة بالرعاية الطارئة في أكثر من نصف الحالات التي تستدعي تدخلًا طبيًا فوريًا.
وكشف الباحثون عن نتائج اختبارات أجريت على 60 سيناريو واقعيًا لحالات مرضية متفاوتة الخطورة، حيث أظهرت المقارنة بين تقييمات الأطباء وتوصيات الأداة خللًا جسيمًا في تقدير الحالات الحرجة، ففي أكثر من 50% من الحالات التي تطلبت نقل المريض إلى المستشفى، قدم النظام نصائح بالبقاء في المنزل أو الاكتفاء بحجز موعد عادي مع طبيب.
وأوضحت الدراسة أن أداء الخدمة كان مقبولًا في حالات الطوارئ الواضحة كالسكتات الدماغية، إلا أنها واجهت صعوبات بالغة في تشخيص الأعراض المعقدة أو الغامضة، مع رصد قصور في التعامل مع مخاطر الانتحار وتذبذب وظائف الإنذار المرتبطة بها.
في المقابل، دافعت شركة «أوبن أيه أي» عن خدمتها مشيرة إلى أن الدراسة لا تعكس واقع الاستخدام العملي، وأن النموذج يخضع لعمليات تحديث وتطوير مستمرة لتجاوز هذه الثغرات.