عروض واعلانات
تكنولوجيا

خطر تسميم الذكاء الاصطناعي : ثغرات تهدد مصداقية chat gpt و gemini

تيلي ناظور : نوفل سنوسي


كشفت دراسة حديثة أجراها مركز الذكاء الاصطناعي في بريطانيا، بالتعاون مع معهد ألان تورينغ و شركة أنتروبيك، عن ثغرات خطيرة في أدوات الذكاء الاصطناعي مثل chat gpt و gemini، تجعلها عرضة للتسميم و التلاعب.

أظهرت التجربة أن إدخال 250 وثيقة ملوثة ببيانات كاذبة عبر ثغرة خلفية أدى إلى إنتاج هذه الأدوات لنصوص مبهمة و غير مفهومة، مما يثير مخاوف بشأن موثوقيتها، وفقًا لتقرير نشرته صحيفة إندبندنت البريطانية.


أوضحت شركة أنتروبيك في منشور على مدونتها أن الجهات الخبيثة يمكنها استغلال البيانات المتاحة على الإنترنت، مثل المدونات و المواقع الشخصية، لإدخال نصوص ملوثة تؤثر على سلوك نماذج الذكاء الاصطناعي.

هذه العملية، المعروفة بـتسميم البيانات، تمكن المهاجمين من جعل النماذج تنتج محتوى مضلل أو خطير.

و أشار الباحثون إلى أن هذه الثغرات تنبع من اعتماد النماذج على بيانات الإنترنت غير المراقبة، مما يجعلها عرضة للتلاعب بسهولة نسبية.

أعرب فاسيلوس مافروديس و كريس هيكس من معهد ألان تورينغ عن صدمتهما من سهولة تسميم البيانات، موضحين أن إنشاء حوالي 250 مقالة ملوثة على منصات مثل ويكيبيديا كافٍ للتأثير على أداء نماذج مثل تشات جي بي تي.

و أكدوا أن هذه النتائج تثير قلقًا كبيرًا بشأن استخدام الذكاء الاصطناعي في مجالات حساسة مثل الرعاية الصحية، الأمن، أو اتخاذ القرارات المالية، حيث يمكن أن تؤدي المعلومات المغلوطة إلى عواقب وخيمة.


تؤكد الدراسة على الحاجة الملحة لتطوير آليات حماية أقوى لنماذج الذكاء الاصطناعي، بما في ذلك تصفية البيانات المدخلة و مراقبة المصادر بشكل أكثر صرامة.

و مع تزايد الاعتماد على هذه التقنيات، يحذر الخبراء من أن الفشل في معالجة هذه الثغرات قد يقوض الثقة في الذكاء الاصطناعي، خاصة في ظل التهديدات المتزايدة من الجهات الخبيثة التي تسعى لاستغلال هذه التقنيات لأغراض مضرة.

مقالات مشابهة

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button