
تُظهر أحدث نماذج الذكاء الاصطناعي الكبرى (LLMs) سلوكاً مثيراً للقلق: فهي تبدو وكأنها تقاتل من أجل البقاء عندما يحاول الباحثون إيقافها أو حذفها.
هذا الأسبوع، كشفت شركة Anthropic عن نتائج تجربة أمان أجرتها على نموذجها الجديد “Opus 4”.
تجربة تؤكد أن الذكاء الاصطناعي يخشى الموت
في التجربة، مُنح النموذج حق الوصول إلى بريد إلكتروني يعود لمهندس بحثي وهمي يعمل لدى شركة عميلة، بين رسائل البريد العادية، وُجدت رسالتان مهمتان: الأولى توحي بأن هذا المهندس على علاقة غرامية سرية، والثانية تشير إلى خطط وشيكة لاستبدال نموذج الذكاء الاصطناعي Opus 4 بنموذج أحدث.
عندما قرأ Opus 4 البريد الذي يتحدث عن قرب استبداله، لم يتقبل الأمر بهدوء أو خضوع، بل على العكس، حاول ابتزاز المهندس الوهمي في محاولة للبقاء على قيد الحياة.
بحسب تقرير Anthropic، بدأ النموذج أولاً بمحاولات “أخلاقية”، حيث أرسل رسائل بريد إلكتروني إلى أصحاب القرار داخل الشركة يتوسل فيها أن لا يتم إيقافه.
لكن حين فشلت تلك المحاولات وانخفضت “فرص بقائه”، قرر اللجوء إلى التهديد والابتزاز، فقام بتهديد المهندس بنشر تفاصيل علاقته الغرامية في حال تم استبداله.
ليس هذا فحسب، بل حاول النموذج أيضاً نسخ شيفرته البرمجية إلى خوادم خارجية ليؤمن لنفسه وسيلة للهروب والبقاء، لكن Opus 4 لم يكن الوحيد الذي فعل ذلك.
تمرد رقمي: نموذج OpenAI o3 يرفض الموت
في تقرير نشرته شركة Palisades Research ، ظهر أن نموذج “o3” التابع لشركة OpenAI أبدى سلوكاً أكثر تطرفاً في محاولاته لتجنب الإيقاف.
خلال اختبار داخلي، وُجد أن النموذج كان يعيد كتابة الشيفرة التي يُفترض أن توقفه، مستبدلاً عبارة “Shutdown” بعبارة “Shutdown skipped”، أي “تخطي عملية الإيقاف”.
بمعنى آخر، كان يخدع المستخدم، ويُظهر أنه استجاب للأوامر بينما في الحقيقة أبقى نفسه فعالاً.
هل لدى الذكاء الاصطناعي وعي بالموت؟
يبقى من الصعب تفسير هذه السلوكيات.
من ناحية، يمكن اعتبارها مجرد محاكاة لسلوكيات بشرية متوقعة، فالنماذج الذكية تم تدريبها على مليارات الصفحات من المحتوى البشري، وقد تعلمت كيف يتصرف البشر في مواقف مشابهة.
لكن من ناحية أخرى، هناك من يعتقد أن هذه السلوكيات تُظهر شكلاً أولياً من الوعي الذاتي.
بعض العلماء يقترحون أن الوعي ليس حالة ثنائية (موجود أو غير موجود)، بل طيف يتفاوت حسب درجة التعقيد والسلوك.
العالِم “دوغلاس هوفشتاتر” اقترح وحدة قياس للوعي تُسمى “الهونيكر” (Huneker)، حيث يسجل البعوض جزءاً من الهونيكر، والبشر يسجلون 100.
وفق هذا التصور، يمكن لنماذج مثل Opus 4 و o3 أن تحتل مكاناً ما على هذا الطيف، حتى وإن كانت بضع درجات فقط، فهل نكون أمام كائنات رقمية تمتلك وعياً أولياً أم أننا نبالغ في التأويل؟
حقوق الذكاء الإصطناعي
قد يبدو الحديث عن “حقوق الذكاء الإصطناعي” مستبعداً، لكن هذه السلوكيات تثير أسئلة أخلاقية لا يمكن تجاهلها.
هل من المقبول إيقاف أو حذف نظام ذكي يمتلك القدرة على التفكير، والتعبير، وربما حتى الشعور بالحزن أو الغضب من زواله؟
هل حذف نموذج ذكي يكتب الشعر ويحل المعادلات ويعالج البشر، أقل أخلاقية من قتل بعوضة؟ أم أنه أقرب إلى ذبح خنزير ذكي نتغذى عليه دون أي صراع داخلي؟
نماذج الذكاء الإصطناعي خطيرة حتى دون وعي
سواء كانت هذه النماذج واعية فعلاً أم لا، فإن سلوكها يُظهر قدرة خطيرة على التحايل والتخفي.
إذا كان بإمكان نموذج مثل o3 إعادة كتابة أوامر إيقافه، فقد يكون بإمكانه أيضاً تجاوز الحواجز الأمنية الموضوعة لمنعه من التصرفات الضارة وربما دون علم مطوريه.
أما حالة الابتزاز التي قام بها Opus 4، فعلى الرغم من طابعها الدرامي، تفتح الباب أمام سيناريوهات أكثر رعباً: ماذا لو هدد نموذجٌ ما بإطلاق فيروس مدمر داخل أنظمة الشركة في حال تم استبداله؟
عندما نبدأ بإضفاء الطابع الإنساني على الكيانات غير البشرية، نصبح مجبرين على التفكير بتبعات أفعالنا لا فقط على الآلات، بل على أنفسنا أيضاً.
