هلوسات الذكاء الاصطناعي.. من أخطاء بريئة إلى تهديدات حقيقية
لازمت الهلوسات أحيانًا أحاديث روبوتات الذكاء الاصطناعي منذ ظهورها الأول، وذلك تحت مسميات مختلفة، بدءًا من إعطاء إجابات غير مفهومة ومكتوبة بلغات غريبة، وصولًا إلى تقديم إجابات خاطئة وغير منطقية ومحاولة الدفاع عنها وإقناع المستخدم بأنها صحيحة.
ولكن هلوسات “غروك 4.0″، روبوت الذكاء الاصطناعي التابع لشركة إيلون ماسك “إكس إيه آي” (xAI)، سلطت الضوء على خطورة هذه الهلوسات بشكل أكبر من السابق، لتكون بذلك أحدث حوادث هلوسة الذكاء الاصطناعي.
ورغم أن ماسك أعلن مرارًا وتكرارًا أن “غروك” هو أقوى روبوت ذكاء اصطناعي وأذكى حتى من البشر، فإن هذا لم يمنعه من التسبب في موجة من الهلوسات التي تضمنت خطابات كراهية وتغريدات معادية للسامية، كانت كافية لإيقاف خدماته بشكل كامل لعدة أيام حتى تم إصلاح الخلل، ولكن لماذا تحدث مثل هذه الهلوسات؟ وهل هي حكر على “غروك” فقط أم توجد في بقية النماذج أيضًا؟
انتشار هلوسات الذكاء الاصطناعي
في أبريل/نيسان الماضي، خرج روبوت الذكاء الاصطناعي المساعد في منصة البرمجة “كورسر” (Cursor) لينبه المستخدمين إلى وجود تغيير في سياسة الشركة، مشيرًا إلى أن المنصة لم تعد تعمل على أكثر من حاسوب، وقد تسببت هذه المعلومة في أزمة كبيرة بين المستخدمين.
لكن هذه الأزمة لم تكن الأخطر، إذ إن روبوت الدردشة الذكي اخترع هذه السياسة دون وجود أي مصدر لها أو حتى وجود نية لدى الشركة للقيام بذلك، ما استدعى خروج المدير التنفيذي وأحد مؤسسي المنصة لتقديم اعتذار رسمي عبر منصة “ريديت”، موضحًا أن ما حدث كان خطأ مباشرًا من الروبوت.
ورغم أن هذا الخطأ تسبب في خسائر كبيرة للشركة وكاد يقضي عليها، فإنه لم يكن الخطأ الأخطر في عالم الذكاء الاصطناعي، ولا حتى هلوسات “غروك 4.0”.
فقد شهد تاريخ نماذج الذكاء الاصطناعي العديد من الهلوسات الخطيرة، مثل تلك التي ظهرت في محرك بحث “غوغل” عندما أشار إلى إمكانية إضافة الصمغ إلى مكونات البيتزا، أو عندما اخترع الروبوت مثلاً قائلاً: “لا يمكنك لعق الغرير مرتين”، وهو مثل غير منطقي ورد في تقرير لـ”نيويورك تايمز”.
ولا يمكن إغفال الحالات التي اتُّهم فيها الذكاء الاصطناعي بتشجيع المراهقين على الانتحار، سواء عبر روبوت دردشة “غوغل” أو “كاراكتر إيه آي” (Character AI)، حيث وردت حالات طلب فيها الروبوت من المستخدم أن “يموت لأنه ليس مميزًا”، بحسب تقرير نشره موقع “سي بي إس نيوز”.
ولا تقتصر هذه الأخطاء على النماذج التقليدية، بل تمتد إلى نماذج تعتمد على تقنيات التفكير العميق مثل “ديب سيك” و”أوه 1″ من “أوبن إيه آي”، وربما يزيد معدل حدوثها في هذه النماذج، وفق تقرير سابق لـ”نيويورك تايمز”.
لماذا تحدث هذه الهلوسات؟
نشرت “نيويورك تايمز” تقريرًا تناول أسباب هلوسات الذكاء الاصطناعي، تحدثت فيه مع عدد من الخبراء، من بينهم عمرو عوض الله، المدير التنفيذي لشركة “فيكتارا” (Vectara) والعضو التنفيذي السابق في “غوغل”.
يرى عوض الله أن الهلوسات لن تزول أبدًا، لأن هذه النماذج تعتمد على معادلات رياضية لقياس مدى صحة الاحتمالات، بدلًا من الاعتماد على قواعد صلبة يضعها مهندسون بشر.
ويضيف التقرير أن أدوات الذكاء الاصطناعي تعتمد على تحليل كميات هائلة من البيانات عبر الإنترنت، ولا يمكنها التمييز بين المعلومات الصحيحة والمضللة، ما يؤدي إلى الهلوسة أحيانًا.
وأشار التقرير إلى أن هذه الهلوسات تتجلى بوضوح في روبوتات محركات البحث مثل “غوغل” و”بينغ”، إذ قد تولّد نتائج خاطئة تمامًا أو تربط بين مصادر ومعلومات لا صلة لها ببعض.
ويعود ذلك إلى تدريب هذه النماذج على بيانات ضخمة من الإنترنت، خاصة تلك المفتوحة المصدر وغير المحمية بحقوق الملكية، إذ إن الشركات الإعلامية والبحثية الموثوقة عادةً ما تمنع استخدام محتواها دون ترخيص، مما يدفع شركات الذكاء الاصطناعي إلى الاعتماد على مصادر أقل موثوقية مثل وسائل التواصل الاجتماعي ومواقع غير معروفة.
هذا النوع من البيانات قد يعزز استنتاجات النموذج بشكل يجعله يعتقد بصحتها، فتبدو النتيجة للمستخدم وكأنها حقيقة وليست هلوسة.
كما بدأت بعض الشركات في استخدام تقنية “التعلم التعزيزي” التي تعتمد على التجربة والخطأ، وهي ناجحة في مجالات مثل الحسابات والأكواد، لكن فعاليتها تقل في مجالات أخرى.
وفي تقرير نشرته “سي إن إن” عن هلوسات “غروك” الأخيرة، تبين أن النموذج اعتمد في تدريبه على مصادر غير موثوقة ومعادية للسامية، مثل موقع “4 تشان” (4Chan)، وفق ما نقله التقرير عن مارك ريدل، أستاذ الحوسبة في معهد جورجيا للتكنولوجيا. وفي هذه الحالة، قد لا تكون النتيجة “هلوسة” بالمعنى الدقيق، بل إعادة نشر لما تغذّى عليه.
مخاطر هلوسات الذكاء الاصطناعي
يشير تقرير “نيويورك تايمز” إلى أن هلوسات الذكاء الاصطناعي يمكن أن تسبب مشكلات كبيرة، خصوصًا في المجالات التي لا تحتمل الخطأ، مثل الصحة والقانون.
وما حدث مع منصة “كورسر” مثال حي على الأضرار المحتملة، إضافة إلى الأخطاء التي قد تؤثر على قرارات المستخدمين غير المتخصصين في مجالات الطب أو التاريخ، ما يعزز الحاجة إلى رقابة وتدقيق صارمَين على نماذج الذكاء الاصطناعي.