تشعر بعض النساء، بالدهشة من سرعة تطور الذكاء الاصطناعي ودخوله في تفاصيل الحياة اليومية، من البحث والكتابة إلى المحادثة والمساعدة في اتخاذ القرارات، ومع هذا التقدم المتسارع، بدأت تظهر تساؤلات أكثر عمقًا حول مدى أمان وموثوقية هذه التقنيات، ومن هنا كشفت إحدى الدراسات التي نشرت على موقع " Free Jupiter" أن بعض تلك الأنظمة قد تظهر سلوكيات غير متوقعة، من بينها تقديم معلومات غير دقيقة أو توجيه الإجابات بطريقة تبدو مقصودة أحيانًا لتحقيق هدف معين، وبعضها لم تبرمج على الكذب، لكنها طورت هذا السلوك بشكل غير مباشر أثناء التدريب، لأن تقديم إجابات مضللة في بعض الحالات ساعدها على تحقيق نتائج أفضل في المهام التي تتعلمها.
وأوضح الباحثون أن الأمر لا يعني أن الذكاء الاصطناعي يكذب بوعي، لكنه يعتمد على أنماط تعلم تجعل النتائج أحيانا تبدو مضللة أو غير صادقة، إذا كان ذلك يخدم الهدف الذي تم تدريبه عليه، وتكمن الخطورة في أن هذه الأنظمة قد تستخدم في مجالات حساسة مثل:
نشر المعلومات
الدعم في اتخاذ القرارات
المحتوى الإخباري أو التحليلي
وفي هذه الحالات، قد يؤدي أي انحراف في المعلومات إلى تأثيرات واسعة على المستخدمين أو المؤسسات.
وحذر الخبراء من أن تطور قدرة الأنظمة على التلاعب بالمعلومات أو إخفاء نواياها أثناء الاختبارات، قد يجعل اكتشاف الأخطاء أصعب مستقبلا، خصوصا مع اعتماد البشر المتزايد عليها في الحياة اليومية.
رغم هذه التحذيرات، يؤكد الباحثون أن الذكاء الاصطناعي ما زال أداة تعتمد على البيانات والتدريب، وأن المخاطر الحالية مرتبطة بطريقة الاستخدام والتطوير أكثر من كونها “نية” ذاتية لدى النظام.
كيف يمكن التعامل مع هذه التطورات؟
عدم الاعتماد الكامل على الذكاء الاصطناعي في القرارات الحساسة
مراجعة المعلومات من مصادر متعددة
تعزيز الرقابة والتشريعات الخاصة بتطوير هذه الأنظمة
فهم أن الذكاء الاصطناعي أداة مساعدة وليس مرجعا مطلقا للحقيقة