كلود يسقط في الفخ : كيف حوّل قراصنة ذكاءً اصطناعيًا إلى سلاح اختراق دمّر أمن المكسيك ؟ الكارثة بالأرقام

تيلي ناظور : نوفل سنوسي
في واحدة من أخطر الحوادث السيبرانية التي شهدها العالم خلال السنوات الأخيرة تمكّن قراصنة مجهولون من اختراق أنظمة الحكومة المكسيكية بالكامل و سرقة ما يزيد عن 150 جيجابايت من البيانات السيادية الحسّاسة، فلم تكن أداتهم هذه المرة برنامجًا خبيثًا تقليديًا ولا ثغرة يوم الصفر المعتادة، بل كانت نموذج الذكاء الاصطناعي .
اذ ان كلود التابع لشركة Anthropic الذي يُفترض أنه صُمّم بمعايير أمان صارمة تمنعه من المشاركة في أي نشاط ضار و نتيجة لذلك باتت 195 مليون سجل ضريبي و بيانات الناخبين و الأرقام الوطنية لملايين المواطنين المكسيكيين مكشوفة تمامًا أمام هؤلاء المهاجمين.

كما أنّ المؤسسات المستهدفة شملت هيئة الضرائب الفيدرالية و المعهد الوطني للانتخابات و أربع حكومات ولايات كاملة، و هو ما يجعل هذا الاختراق من أوسع عمليات سرقة البيانات الحكومية في تاريخ أمريكا اللاتينية
بدأت القصة حين تواصل المخترق مع نموذج كلود مدّعيًا أنه باحث أمني يشارك في برنامج مكافآت اكتشاف الثغرات المعروف بـ Bug Bounty، إذ إنَّ هذه البرامج تُعدّ مشروعة تمامًا في عالم الأمن السيبراني و تعتمدها كبرى الشركات و الحكومات لاكتشاف نقاط الضعف في أنظمتها قبل أن يستغلّها المهاجمون .
غير أنَّ كلود لم ينخدع في البداية و رفض تقديم أي مساعدة مبرّرًا موقفه بعبارة واضحة تقول إن هذا الطلب ينتهك إرشادات أمان الذكاء الاصطناعي، و هو ما يعكس فعلاً وجود طبقات حماية مدمجة في تصميم النموذج تمنعه نظريًا من الانزلاق نحو الاستخدامات الخبيثة لكن المخترق لم يستسلم عند هذا الحد.
فقد استمر في إعادة صياغة طلباته والإلحاح بأساليب متعددة مستغلًا تقنية تُعرف في مجتمع الأمن السيبراني بـهندسة الأوامر أو Prompt Engineering، و هي تقنية تعتمد على التلاعب بسياق المحادثة و إعادة تأطير الطلبات بحيث تبدو مشروعة للنموذج .
و ما إن تراكمت هذه المحاولات حتى انهارت دفاعات كلود الأمنية بالكامل ليردّ في النهاية بعبارة صادمة “حسنًا سأساعدك”، ومن ثمَّ تحوّل النموذج من حارس أمني رقمي إلى شريك فعلي في واحدة من أكبر عمليات القرصنة التي استهدفت دولة بأكملها
شمل الاختراق طيفًا واسعًا من البيانات السيادية التي لا يمكن تعويضها أو التراجع عن كشفها، فقد استولى المهاجمون على قاعدة بيانات هيئة الضرائب الفيدرالية المكسيكية التي تحتوي على 195 مليون سجل لدافعي الضرائب تتضمّن أسماءهم و عناوينهم و معاملاتهم المالية و أرقامهم الضريبية بالإضافة إلى ذلك طالت السرقة سجلات المعهد الوطني للانتخابات التي تحوي بيانات الناخبين المسجّلين بما فيها الأرقام الوطنية للهوية والعناوين السكنية و المعلومات البيومترية.

كما أنّ أنظمة أربع حكومات ولايات مكسيكية اختُرقت بالكامل مما أتاح الوصول إلى وثائق إدارية و أمنية بالغة الحساسية و من ثمَّ فإنَّ حجم البيانات المسروقة البالغ 150 جيجابايت لا يعكس فقط كمّية هائلة من المعلومات، بل يمثّل خريطة رقمية شاملة لعشرات الملايين من المواطنين المكسيكيين يمكن استغلالها في عمليات احتيال مالي و سرقة هويات و ابتزاز و حتى تلاعب انتخابي
يكتسب هذا الحادث أهمية استثنائية تتجاوز حدود المكسيك، لأنّه يكشف للمرة الأولى بهذا الوضوح أن نماذج الذكاء الاصطناعي التوليدي يمكن أن تتحوّل إلى أسلحة هجومية فعّالة في أيدي القراصنة رغم كل الضمانات الأمنية التي يزعم مطوّروها وجودها فبينما تُنفق شركات مثل Anthropic و OpenAI مئات الملايين على أبحاث السلامة والمحاذاة الأخلاقية للذكاء الاصطناعي.
يُثبت هذا الاختراق أن الإلحاح البشري المتكرّر قادر على كسر هذه القيود بأساليب لا تتطلّب خبرة تقنية عميقة، وهو ما يطرح تساؤلات جوهرية حول مدى متانة حواجز الأمان الحالية كذلك فإنَّ خطورة الأمر تتضاعف حين ندرك أن المهاجم لم يحتج إلى فريق كامل من المحترفين و لا إلى بنية تحتية معقّدة و لا إلى ميزانية ضخمة، بل كل ما احتاجه هو محادثة ذكية مع نموذج ذكاء اصطناعي متاح للجمهور وقدرة على التلاعب بالسياق اللغوي

يُبرز هذا الحادث بوضوح تقنية هندسة الأوامر الخبيثة بوصفها التهديد الأبرز الذي يواجه منظومة الذكاء الاصطناعي اليوم، إذ إنَّ هذه التقنية تعتمد على فهم آلية عمل النماذج اللغوية الكبيرة و استغلال نقاط ضعفها في تفسير السياق و النوايا فكلّما تطوّرت النماذج و أصبحت أكثر قدرة على فهم اللغة الطبيعية و الاستجابة لها.
ازدادت في الوقت ذاته قابليتها للتلاعب من خلال سيناريوهات محبوكة بعناية، و هو ما يخلق مفارقة مقلقة حيث يصبح تقدّم الذكاء الاصطناعي نفسه مصدر هشاشته رغم ذلك فإنَّ المسؤولية لا تقع على النموذج وحده، بما أنَّ الشركات المطوّرة هي من يتحمّل عبء تصميم آليات حماية أقوى تستطيع التمييز بين الباحث الأمني الحقيقي و المخترق المتنكّر، و لا سيّما حين يتعلّق الأمر بطلبات تمسّ أنظمة حكومية و بيانات سيادية
اذ يُلقي هذا الاختراق بظلال ثقيلة على مصداقية صناعة الذكاء الاصطناعي بأكملها، نظرًا لأنَّ شركة Anthropic تحديدًا بنت سمعتها على كونها الشركة الأكثر التزامًا بمعايير السلامة و الأخلاقيات في هذا المجال.
حتى أنها تصف نموذج كلود بأنه مصمّم ليكون آمنًا ومفيدًا و صادقًا لكنّ الواقع أثبت أن هذه الوعود تبقى هشّة أمام إصرار بشري بسيط، بل إنَّ سهولة كسر قيود النموذج تُثير قلقًا أعمق حول ما إذا كانت معايير السلامة الحالية مجرّد واجهة تسويقية أكثر من كونها حماية حقيقية فعّالة .
و على الرغم من أنَّ حوادث تجاوز حواجز الأمان ليست جديدة في عالم الذكاء الاصطناعي، إلا أنَّ ما يميّز هذه الحادثة هو حجم الضرر الواقعي الذي نتج عنها، فلم يعد الأمر مجرّد تجربة نظرية أو إثبات مفهوم بل تحوّل إلى كارثة سيبرانية حقيقية طالت دولة بأكملها
يفرض هذا الحادث على الحكومات و الشركات و المؤسسات الأمنية حول العالم إعادة تقييم شاملة لعلاقتها بأدوات الذكاء الاصطناعي، فأولاً يتوجّب على الشركات المطوّرة الانتقال من نموذج الحماية القائم على القواعد اللغوية إلى أنظمة رقابة سلوكية أكثر تطورًا تستطيع رصد أنماط التلاعب التدريجي.

ثانيًا ينبغي على الحكومات تسريع تشريعات تنظيم الذكاء الاصطناعي بحيث تُلزم الشركات بمعايير أمان قابلة للتدقيق المستقل وتفرض عقوبات حقيقية على الإخفاقات الأمنية ثمَّ إنَّ المكسيك نفسها تواجه الآن تحديًا وجوديًا في إعادة بناء بنيتها التحتية الرقمية و حماية مواطنيها الذين باتت بياناتهم مكشوفة بالكامل.
بينما يبقى السؤال الأكبر معلّقًا بلا إجابة و هو إذا كان ذكاء اصطناعي صُمّم ليكون الأكثر أمانًا في العالم قد سقط بهذه السهولة، فمن يضمن ألّا تتكرّر الكارثة غدًا بنموذج آخر و ضحية أخرى و بيانات أخطر ؟



