عروض واعلانات
تكنولوجيا

مصير البيانات الشخصية و الصور في تدريب نماذج الذكاء الاصطناعي : تحديات الخصوصية و الحلول المستقبلية

تيلي ناظور : نوفل سنوسي

مِجهر

مع التطور السريع للنماذج اللغوية الكبرى ونماذج الرؤية الحاسوبية، أصبح جمع واستخدام البيانات الشخصية و الصور الرقمية محور نقاش عالمي حاد حيث يثير هذا الاستخدام الواسع تساؤلات جوهرية حول الخصوصية و حقوق الأفراد، و مدى التوازن بين الابتكار التكنولوجي من جهة و الحماية القانونية و الأخلاقية من جهة أخرى. 

تُدرب النماذج الرائدة مثل GPT-4 و Claude  و Gemini و LLaMA على كميات هائلة من النصوص و الصور المأخوذة من الإنترنت، مما يجعل مصير هذه البيانات بعد جمعها قضية مركزية في عصر الذكاء الاصطناعي.

اذ تعرف البيانات الشخصية وفقاً للنظام العام لحماية البيانات ( GDPR ) بأنها أي معلومة تتعلق بشخص طبيعي معرّف أو قابل للتعرّف عليه مباشرة أو غير مباشر، و تشمل الصور و البيانات المرفقة بها مثل معلومات EXIF التي تحتوي على الموقع الجغرافي و الوقت و الجهاز، بالإضافة إلى الوجوه و المعلومات الصحية أو المالية.

كما تحتوي الصور على طبقات متعددة من المعلومات، بدءاً من المحتوى البصري الظاهر وصولاً إلى البيانات الوصفية التي قد تكشف هوية الأشخاص بدقة.

حيث تعتمد شركات الذكاء الاصطناعي على مصادر متنوعة لجمع البيانات، أبرزها الويب العام من خلال أدوات مثل Common Crawl، و منصات التواصل الاجتماعي مثل إكس و فيسبوك و إنستغرام، إلى جانب مجموعات البيانات المفتوحة الضخمة مثل ImageNet و LAION-5B ، التي تضم مليارات الصور و التي غالباً ما تتم عملية الجمع آلياً عبر برامج الزحف على الويب، ثم تنظيف البيانات و تصفيتها، و غالباً ما يحدث ذلك دون موافقة صريحة من أصحاب هذه الصور أو النصوص.

كما تكمن المشكلة الأساسية في غياب الموافقة الواعية، حيث يشارك معظم المستخدمين محتواهم على المنصات دون أن يدركوا أنه قد يُستخدم لتدريب نماذج ذكاء اصطناعي و من أبرز المخاطر إمكانية استخراج البيانات الشخصية من النماذج المدربة، كما أثبتت دراسات علمية موثوقة مثل تلك المتعلقة بنموذج GPT-2، حيث يمكن استخراج أرقام هواتف و عناوين بريد إلكتروني و معلومات حساسة أخرى. 

كما يُمكن إعادة تعريف الأشخاص حتى بعد إخفاء المعرفات المباشرة من خلال ربط البيانات المتبقية بمصادر أخرى. 

و تزداد الخطورة مع الصور الشخصية و الحميمية، كما حدث في قضايا مثل Clearview AI التي جمعت مليارات الصور دون إذن، أو ظهور صور غير مرغوب فيها ضمن مجموعات بيانات LAION-5B، اذ يوفر الإطار القانوني بعض الحماية، و يُعد GDPR الأوروبي الأكثر صرامة من خلال منحه حقوقاً واضحة للأفراد مثل حق الوصول إلى بياناتهم، و حق الحذف ( النسيان )، و حق الاعتراض على معالجة البيانات.

أما قانون CCPA في كاليفورنيا فيمنح حقوق معرفة و حذف و اعتراض على بيع البيانات، بينما يفرض EU AI Act متطلبات توثيق و تقييم مخاطر صارمة على النماذج ذات المخاطر العالية، و رغم ذلك، تواجه الشركات دعاوى قضائية كبيرة تتعلق بحقوق المؤلف و الاستخدام غير المصرح به للمحتوى.

لحل هذه التحديات، تُطور تقنيات حماية متقدمة مثل الخصوصية التفاضلية التي تضيف ضوضاء إلى البيانات، و التعلم الموزع ( Federated Learning ) الذي يبقي البيانات على أجهزة المستخدمين، و توليد البيانات الاصطناعية التي تقلل الاعتماد على المحتوى الحقيقي.

كما تساهم بطاقات النماذج وبطاقات البيانات في تعزيز الشفافية حول مصادر التدريب و طرق المعالجة.

يستطيع الأفراد ممارسة حقوقهم من خلال تقديم طلبات الوصول إلى البيانات ( DSAR ) لمعرفة ما إذا كانت بياناتهم مستخدمة، و طلب حذفها أو الاعتراض على معالجتها، كما يُنصح بإدارة البصمة الرقمية عبر ضبط إعدادات الخصوصية، استخدام أدوات مثل VPN، و تقليل مشاركة المحتوى الحساس علناً.

في الجانب الأخلاقي، تدعو المبادئ المسؤولة إلى الشفافية الكاملة، و الموافقة الحقيقية المستنيرة، و تقليل الضرر، مع التركيز على تصميم الخصوصية منذ البداية.

و يتجه المستقبل نحو نماذج تدريب تعتمد أكثر على البيانات الاصطناعية و الموزعة، و أسواق بيانات محمية تمنح الأفراد تعويضاً مقابل بياناتهم، إلى جانب توحيد المعايير العالمية من خلال قوانين مثل EU AI Act.

و الاهم يجب على الأفراد فهم حقوقهم وممارستها بفعالية، بينما على الشركات تبني مبدأ الخصوصية بالتصميم و توثيق عملياتها بشفافية أما الحكومات فمطالبة بتطوير تشريعات أقوى و تعزيز الوعي العام.

في النهاية، يمثل استخدام البيانات الشخصية في الذكاء الاصطناعي توازناً دقيقاً بين التقدم التكنولوجي و حقوق الإنسان.

و رغم حجم التحديات، فإن التقنيات الناشئة و التشريعات المتطورة توفر أملاً في مستقبل أكثر أخلاقية و شفافية، يخدم الذكاء الاصطناعي الإنسانية دون المساس بخصوصيتها.

مقالات مشابهة

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button