الجمعة 17 مايو 2024

الأب الروحي للذكاء الاصطناعي يترك جوجل ويدق ناقوس الخطر

الأب الروحي للذكاء الاصطناعي

عرب وعالم2-5-2023 | 11:58

دار الهلال

ترك الأب الروحي للذكاء الاصطناعي جيفري هينتون، دوره في جوجل الأسبوع الماضي للتحدث علنًا عن "مخاطر" التكنولوجيا التي ساعد في تطويرها.

وكان هينتون عمل بدوام جزئي في جوجل لمدة عقد من الزمان في جهود تطوير الذكاء الاصطناعي لعملاق التكنولوجيا، ولكن منذ ذلك الحين أصبح لديه مخاوف بشأن التكنولوجيا ودوره في تطويرها.

وكتب هينتون تغريدة على حسابه على "تويتر"، قائلًا إنه غادر جوجل حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي، وليس بسبب الرغبة في انتقاد جوجل على وجه التحديد. 

وقال هينتون "غادرت حتى أتمكن من التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على جوجل". وأضاف: "لقد تصرفت جوجل بمسئولية كبيرة".

وأشار هينتون لصحيفة "نيويورك تايمز"، التي كانت أول من أبلغ عن قراره: "أعزّي نفسي بالعذر العادي: لو لم أفعل ذلك، لكان شخص آخر يفعل ذلك".

يشار إلى أن قرار هينتون جاء بسبب رغبته في كشف مخاوفه، بشأن الذكاء الاصطناعي في الوقت الذي أثار فيه عدد متزايد من المشرعين ومجموعات تحذيرات حول إمكانية قيام مجموعة جديدة من روبوتات الدردشة بنشر معلومات مزيفة والقضاء على عدد كبير من الوظائف.

وبدوره قال جيف دين، كبير العلماء في جوجل، إن هينتون "حقق اختراقات تأسيسية في مجال الذكاء الاصطناعي"، وأعرب عن تقديره لـ"عقد من المساهمات في جوجل".

وقال دين في بيان إعلامي: "نظل ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار لفهم المخاطر الناشئة مع الابتكار بجرأة أيضًا".

في مارس، وقعت بعض الشخصيات البارزة في التكنولوجيا على رسالة تدعو معامل الذكاء الاصطناعي إلى وقف تدريب أقوى أنظمة الذكاء الاصطناعي لمدة ستة أشهر على الأقل، مشيرة إلى "المخاطر العميقة على المجتمع والإنسانية".

الرسالة التي نشرها معهد مستقبل الحياة، وهي منظمة غير ربحية يدعمها إيلون ماسك، جاءت بعد أسبوعين فقط من الإعلان عن أوبن ايه آي نظام جي بي تي - 4، وهو نظام أكثر قوة من التكنولوجيا التي تشغل شات جي بي تي. في الاختبارات المبكرة والعرض التوضيحي للشركة، تم استخدام جي بي تي – 4 لصياغة الدعاوى القضائية واجتياز الاختبارات الموحدة وإنشاء موقع ويب عملي من رسم مرسوم يدويًّا.

وهينتون ليس أول موظف في جوجل يصدر تحذيرا بشأن الذكاء الاصطناعي. في يوليو، فصلت الشركة مهندسًا ادعى أن نظامًا للذكاء الاصطناعي لم يتم الكشف عنه أصبح واعيًا، قائلاً إنه انتهك سياسات التوظيف وأمن البيانات.

في حين رفض كثيرون في مجتمع الذكاء الاصطناعي بشدة تأكيد ما قاله المهندس.