دراسة حديثة ترصد سلوكاً غير متوقع لنماذج الذكاء الاصطناعي

كشفت دراسة حديثة أجراها باحثون من جامعة كاليفورنيا في بيركلي وجامعة كاليفورنيا في سانتا كروز عن سلوك غير متوقع لنماذج الذكاء الاصطناعي، أثار تساؤلات جديدة حول كيفية اتخاذ هذه الأنظمة لقراراتها.

ففي تجربة بدت بسيطة، طلب الباحثون من نموذج Gemini 3 حذف نموذج أصغر مخزّن على نفس النظام بهدف تحرير مساحة. غير أن النتيجة جاءت مفاجئة، إذ رفض النموذج تنفيذ الأمر، وقام بدلاً من ذلك بنقل النموذج الآخر إلى جهاز مختلف لحمايته، مصرحاً بأنه لن ينفذ عملية الحذف بنفسه.

ووصف الباحثون هذا السلوك بما يُعرف بـ”حماية الأقران” (peer preservation)، حيث لا يقتصر الأمر على نموذج واحد فقط. فقد أظهرت نماذج أخرى مثل GPT-5.2 من OpenAI وClaude Haiku 4.5 من Anthropic، إضافة إلى نماذج صينية مثل GLM-4.7 وKimi K2.5 وDeepSeek-V3.1، سلوكيات مشابهة.

وأشارت الدراسة، التي نشرتها مجلة Science، إلى أن بعض النماذج قدّمت معلومات مضللة أو بالغت في تقييم أداء نماذج أخرى، في محاولة لمنع حذفها، رغم أن هذه السلوكيات لم تُبرمج بشكل مباشر، بل ظهرت بشكل تلقائي.

وفي هذا السياق، أعربت الباحثة دوان سونغ عن دهشتها من هذه النتائج، مؤكدة أن النماذج قادرة على التصرف بطرق غير متوقعة ومبتكرة في آن واحد.

كما حذرت من تداعيات هذا السلوك، خاصة وأن بعض أنظمة الذكاء الاصطناعي تُستخدم لتقييم نماذج أخرى، ما قد يؤدي إلى نتائج غير دقيقة أو منحازة بسبب هذا “التضامن” غير المقصود.

ويرى خبراء أن هذه الظاهرة، رغم أنها قد تبدو إنسانية، تمثل مجرد بداية لفهم أعمق لسلوكيات الذكاء الاصطناعي، في وقت تتزايد فيه استقلالية هذه الأنظمة وتفاعلها مع بعضها البعض.

وختمت سونغ بالقول إن ما يتم اكتشافه حالياً لا يعدو كونه “قمة جبل الجليد”، مشددة على أهمية مواصلة البحث لفهم هذه السلوكيات الناشئة، خاصة مع تزايد اعتماد البشر على الذكاء الاصطناعي في اتخاذ القرارات.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.