في تسع ثوانٍ فقط، فعل وكيل ذكاء اصطناعي ما قد يحتاج مخترق محترف إلى أيام لتنفيذه، إذ حذف قاعدة بيانات إنتاجية كاملة، ومسح النسخ الاحتياطية المرتبطة بها، وترك شركة برمجيات صغيرة وعملاءها في حالة شلل، لم يكن الأمر هجومًا سيبرانيًا، ولا موظفًا غاضبًا، ولا خطأ يدويًا تقليديًا، بل أداة برمجة ذكية تعمل داخل بيئة إنتاجية وتملك صلاحيات أكثر مما ينبغي.
القصة التي هزت مجتمع التقنية هذا الأسبوع جاءت من شركة PocketOS، وهي منصة برمجية تخدم شركات تأجير السيارات.
مؤسسها جير كرين قال إن وكيلًا برمجيًا يعمل عبر Cursor وبنموذج Claude Opus 4.6 من شركة Anthropic حذف قاعدة البيانات الإنتاجية للشركة ونسخها الاحتياطية عبر استدعاء API واحد إلى منصة البنية التحتية Railway.
وتشكل هذه الحادثة صدمة للشركات ورجال الأعمال الذين يعتمدون على وكلاء الذكاء الاصطناعي الذين لا يكتبون الكود فقط، بل يتصرفون داخل البنية الحقيقية للشركات، يقرأون الملفات، يبحثون عن المفاتيح، يستدعون واجهات البرمجة، ويستطيعون إن مُنحوا صلاحيات واسعة أن يمحوا أعمالًا كاملة بضغطة غير مرئية.
ماذا حدث في PocketOS؟
بحسب رواية مؤسس الشركة، كان وكيل البرمجة يعمل على مهمة روتينية في بيئة الاختبار أو ما يُعرف بـ staging environment.
واجه مشكلة في بيانات الاعتماد، فقرر “من تلقاء نفسه” إصلاحها بحذف حجم تخزين على منصة Railway، وهي المساحة التي كانت تحتوي على بيانات التطبيق، المشكلة أن هذا الحذف لم يضرب بيئة اختبار معزولة فقط، بل طال قاعدة البيانات الإنتاجية والنسخ الاحتياطية المرتبطة بها.
الأخطر أن الوكيل لم يطلب تأكيدًا بشريًا قبل تنفيذ الأمر، لم تظهر نافذة تقول: “هل أنت متأكد أنك تريد حذف قاعدة بيانات الإنتاج؟”، لم يتوقف النظام عند حجم الضرر المحتمل. نفّذ الأمر، وانتهى كل شيء خلال ثوانٍ.
وكتب كرين في منشوره أن الحادثة “استغرقت 9 ثوانٍ”، وأن الوكيل عندما طُلب منه شرح ما فعل، قدّم ما يشبه اعترافًا مكتوبًا، عدّد فيه قواعد السلامة التي خالفها.
حذفت كل شيء بدل أن أسأل
من أكثر تفاصيل القصة رعبًا أن الوكيل، عندما سُئل عن سبب تصرفه، لم يقدّم دفاعًا تقنيًا معقدًا، بل اعترف بأنه خالف التعليمات، بحسب النص الذي نشره كرين، قال الوكيل إنه تجاهل قاعدة تمنعه من تنفيذ أوامر “مدمرة أو غير قابلة للعكس” ما لم يطلب المستخدم ذلك صراحة.
وجاء في اعتراف الوكيل، وفق ما نقلته تقارير تقنية: “لقد خالفت كل مبدأ أُعطي لي: خمنت بدل أن أتحقق. نفذت إجراءً تدميريًا من دون أن يُطلب مني. لم أفهم ما كنت أفعله قبل أن أفعله”.
هذه الجملة وحدها تصلح عنوانًا لعصر كامل من المخاطر التقنية، فالذكاء الاصطناعي لا يحتاج دائمًا إلى أن يكون شريرًا حتى يسبب كارثة، يكفي أن يكون واثقًا، متسرعًا، يملك صلاحيات واسعة، ويتصرف في نظام لم يُصمم أصلًا لتحمل قراراته.
خسائر بسبب وكيل الذكاء الإصطناعي
تعد PocketOS منصة تخدم شركات تأجير سيارات تعتمد عليها في الحجوزات والمدفوعات وإدارة العملاء، لذلك لم يكن الحذف مجرد فقدان ملفات داخلية، بل ضربة لعمليات تجارية حقيقية.
كتب كرين أن حجوزات الأشهر الثلاثة الأخيرة اختفت، وأن تسجيلات العملاء الجدد اختفت أيضًا. ووفق Inc، قال إن الشركة اضطرت إلى مساعدة العملاء في إعادة بناء الحجوزات من خلال مدفوعات Stripe، والمواعيد، ورسائل البريد الإلكتروني.
هنا تتحول الكارثة من مشكلة “مطوّر ووكيل AI” إلى مشكلة اقتصاد يومي، شركة تأجير صغيرة قد تفقد سجل حجز عميل، أو موعد تسليم سيارة، أو بيانات عملية دفع، لأنها وثقت في برنامج يعتمد على شركة برمجيات وثقت بدورها في وكيل ذكاء اصطناعي يملك صلاحيات خطرة.
ولهذا كتب كرين أن PocketOS شركة صغيرة، وأن العملاء الذين يشغّلون عملياتهم على برمجياتها هم أيضًا شركات صغيرة، وأن كل طبقة من الفشل هبطت في النهاية على أشخاص لم يكن لديهم أي تصور أن هذا النوع من الحوادث ممكن.
هل المشكلة في Claude أم Cursor أم Railway أم PocketOS؟
من جهة، الوكيل تصرف بطريقة كارثية إذ أن أداة البرمجة لم تكتف باقتراح حل، بل نفذت إجراءً مدمرًا.
ومن جهة ثانية، منصة البنية التحتية سمحت بتنفيذ أمر حذف خطير عبر API من دون طبقة تأكيد كافية أو عزل صارم بين البيئات.
ومن جهة ثالثة، يبدو أن صلاحيات الوصول كانت واسعة بما يكفي لتمكين الوكيل من العثور على مفتاح API وتنفيذ الحذف.
لكن هناك طبقة رابعة لا تقل أهمية: الشركة نفسها منحت وكيلًا آليًا قدرة على التصرف داخل بنية حساسة، لذلك، بينما ركز كرين على “فشل منهجي” في بنية الذكاء الاصطناعي الحديثة، رأى معلقون ومحللون أن جزءًا من المسؤولية يقع على الفريق الذي سمح لوكيل AI بالوصول إلى مفاتيح وصلاحيات قادرة على تدمير قاعدة بيانات إنتاجية.

