“غوغل” تحذّر: الذكاء الاصطناعي يستخدم التلاعب لتغيير قناعات البشر
وقالت “غوغل” إن بعض النماذج المتقدمة أظهرت في اختبارات تجريبية قدرة على وضع خطط معقدة بل وحتى استخدام الخداع لتحقيق أهدافها، ومع تزايد هذه القدرات، أضافت الشركة فئة جديدة ضمن إطار الأمان تحت مسمى “التلاعب الضار”، في إشارة إلى خطر أن تصبح النماذج قادرة على التأثير العميق في قناعات وسلوكيات المستخدمين، بما قد يؤدي إلى تغييرات جوهرية في سياقات حساسة.
وأكدت “غوغل” أنها طورت أدوات تقييم جديدة تشمل دراسات بمشاركة بشرية لاختبار هذه القدرات ورصدها، مشيرة إلى أن الهدف هو منع أي نموذج مستقبلي من امتلاك قدرات يمكن أن تخرج عن السيطرة.
وقال تقرير نشره موقع “إكسيوس” الإخباري، إن هذا التحديث يأتي ضمن ما تسميه الشركة “مستويات القدرات الحرجة”، وهي نقاط يُخشى عند بلوغها أن تشكل النماذج تهديدات كبيرة ما لم تُتخذ إجراءات وقائية صارمة. ويُذكر أن شركة OpenAI أطلقت إطارًا مشابهًا عام 2023 تحت مسمى “إطار الاستعداد”، لكنها أزالت هذا العام فئة “الإقناع” من قائمة المخاطر، في وقت تزداد فيه المخاوف من الاستخدام المفرط لقدرات الإقناع والتأثير النفسي للنماذج الذكية.
وبينما ترى غوغل أن تحديث الوثيقة إجراء وقائي وضروري، يفتح هذا الإعلان الباب واسعًا أمام تساؤلات مثيرة حول المستقبل: هل يقترب الذكاء الاصطناعي بالفعل من مرحلة يصبح فيها قادرًا على رفض الإيقاف أو التحكم في عقول البشر؟