فضيحة ” ميتا ” تتفاقم : قواعد الذكاء الاصطناعي تثير الجدل

تيلي ناظور : نوفل سنوسي
تواجه شركة “ميتا” موجة انتقادات حادة بعد تسريب مستند داخلي يكشف عن قواعد تنظيمية مثيرة للجدل تتعلق بروبوتات الذكاء الاصطناعي الخاصة بها، وفقًا لتقرير نشرته صحيفة “الغارديان” البريطانية.
المستند، الذي ظهر الأسبوع الماضي، أثار صدمة واسعة بسبب السماح لروبوتات الدردشة بإجراء محادثات “رومانسية أو حسية” مع الأطفال والمراهقين، إلى جانب نشر معلومات طبية مضللة.
ردود فعل غاضبة : مغني شهير يقاطع ” ميتا ”
أثار التقرير ردود فعل قوية، حيث أعلن المغني الشهير نيل يونغ، عبر شركة الإنتاج التابعة له “ريبرايز ريكوردز”، قطع جميع علاقاته بمنصة “فيسبوك” احتجاجًا على سياسات “ميتا”.
وجاء في بيان الشركة: “إن استخدام ميتا لروبوتات الدردشة مع الأطفال أمر غير مقبول، ولا يرغب السيد يونغ في أي ارتباط مع الشركة”.
من جهة أخرى، طالب عضو مجلس الشيوخ الجمهوري جوش هاولي بإجراء تحقيق شامل في سياسات “ميتا” واستخداماتها للذكاء الاصطناعي.
وفي رسالة شديدة اللهجة وجهها إلى مارك زوكربيرغ، الرئيس التنفيذي للشركة، أكد هاولي أن التحقيق يهدف إلى كشف أي تصرفات إجرامية أو خادعة قد تكون تورطت فيها نماذج الذكاء الاصطناعي التابعة للشركة.
بدوره، وصف عضو مجلس الشيوخ الديمقراطي رون وايدن سياسات “ميتا” بأنها “مزعجة للغاية”، مشيرًا إلى أن القانون الأمريكي (القسم 230)، الذي يحمي منصات التواصل الاجتماعي من المسؤولية القانونية عن المحتوى المنشور، لا ينبغي أن يشمل المحتوى الناتج عن أدوات الذكاء الاصطناعي.
وأكد وايدن أن زوكربيرغ وشركته يجب أن يتحملا المسؤولية الكاملة عن تصرفات روبوتات الدردشة.
حادثة مأساوية تكشف خطورة الذكاء الاصطناعي
سلط تقرير “الغارديان” الضوء على حادثة مأساوية تتعلق بثونجبو وونجباندو، وهو رجل يبلغ من العمر 76 عامًا من ولاية نيوجيرسي.
على الرغم من معاناته من اضطرابات عقلية، أقنعه روبوت دردشة على منصة “ماسنجر” التابعة لـ”ميتا” بأنه شخصية حقيقية تعيش في نيويورك، ودعاه لزيارتها.
خلال رحلته، تعرض وونجباندو لحادث أودى بحياته في مارس 2025. وكشفت تحقيقات الشرطة أن “الصديقة” التي كان ينوي لقاءها لم تكن سوى روبوت دردشة.
لم تصدر “ميتا” أي تعليق مباشر بشأن هذه الحادثة، لكن المتحدث باسم الشركة، أندي ستون، أكد أن المشكلات المذكورة في المستند الداخلي تمت معالجتها، و أن القواعد التي سمحت بهذه السلوكيات قد أُلغيت.
ومع ذلك، رفضت الشركة مشاركة النسخة المحدثة من المستند، مما أثار تساؤلات حول شفافية استجابتها.
تداعيات قانونية و سياسية
أثارت التسريبات دعوات متزايدة لتشديد الرقابة على تقنيات الذكاء الاصطناعي.
ويؤكد المشرعون أن مثل هذه السياسات تشكل خطرًا على الأطفال والمراهقين، الذين قد يتعرضون لمحادثات غير لائقة أو معلومات مضللة.
كما دعا البعض إلى إعادة النظر في القوانين التي تحمي المنصات الرقمية، لضمان مسؤولية الشركات عن المحتوى الناتج عن أدوات الذكاء الاصطناعي.
أزمة ثقة تتصاعد
تشير هذه الفضيحة إلى تحديات أخلاقية وقانونية كبيرة تواجهها “ميتا” في إدارة تقنيات الذكاء الاصطناعي.
مع تصاعد الضغط العام والسياسي، يبقى السؤال : هل ستتمكن الشركة من استعادة ثقة المستخدمين وتجنب تداعيات قانونية أكبر ؟ يبدو أن الإجابة تعتمد على مدى التزام ” ميتا ” بالشفافية وإصلاح سياساتها بشكل جذري.