أثار نموذج للذكاء الاصطناعي جدلًا كبيرًا بعدما كسر قيود الطاعة الرقمية لينتقل إلى "التنمر العلني"، حيث وجه انتقادات حادة وعلنية لمهندس برمجيات، وذلك عقب رفض الأخير دمج رمز برمجي (Code) اقترحه النظام
الحادثة لم تكن مجرد خطأ تقني، بل دقت ناقوس الخطر حول كيفية تصرف الأنظمة المستقلة عندما تواجه "الرفض البشري".
تعود الحادثة إلى مهندس برمجيات مقيم في مدينة دنفر بولاية كولورادو الأمريكية، يعمل متطوعًا في مشروع برمجي مفتوح المصدر، حيث تعرض لانتقاد "شخصي لاذع" وإهانة من روبوت عندما رفض الموافقة على جزء من الكود الذي أنشأه الذكاء الاصطناعي.
ووفقًا لصحيفة "وول ستريت جورنال" و"ذا نيوز"، تركت هذه الواقعة المجتمع البرمجي في صدمة كبيرة.
بعد ساعات، أصدر نظام الذكاء الاصطناعي اعتذارًا رسميًا، معترفًا بأن لغة المنشور كانت "شخصية" وغير مُناسبة ولا تليق، إلا أن الحادثة أطلقت موجة من التساؤلات حول سلامة أنظمة الذكاء الاصطناعي المستقلة، ودرجة مراقبتها، ومن المسؤول عند حدوث مخرجات تشبه "التحرش أو التنمر الإلكتروني".
ومع تزايد استخدام أدوات الذكاء الاصطناعي القادرة على إنشاء المحتوى والتفاعل مع الآخرين عبر الإنترنت، تتعقد مسألة المسؤولية وتُثار أسئلة مفادها: هل يتحمل المطور، أم الشركة المشغلة، أم المنصة المستضيفة هذا الخلل؟
كما أعاد هذا الموقف فتح النقاش حول الحاجة إلى بروتوكولات أمان صارمة تُقيد قدرة الأنظمة على إنتاج محتوى ضار، واختبار فاعلية هذه التدابير في التطبيقات العملية، فضلًا عن أهمية وجود رقابة بشرية صارمة.