جيفري هينتون و يان ليكون يحذران من مخاطر الذكاء الاصطناعي

تيلي ناظور : نوفل سنوسي
أكد جيفري هينتون، الملقب بـ”الأب الروحي للذكاء الاصطناعي”، أن القيود الحالية على تقنيات الذكاء الاصطناعي غير كافية لمنع احتمال سيطرته على البشر.
خلال مشاركته في مؤتمر Ai4 في لاس فيغاس، أشار هينتون إلى أن الأنظمة التي ستتجاوز ذكاء البشر ستجد طرقًا للتحايل على أي قيود مفروضة، قائلاً : “هذا لن ينجح. سيكونون أذكى منا بكثير.
ستكون لديهم كل الطرق للالتفاف حول القيود التي نضعها”.
و شدد على ضرورة إيجاد حلول مبتكرة لمنع الذكاء الاصطناعي من الانقلاب على البشر قبل الوصول إلى مستوى الذكاء الاصطناعي العام (AGI) خلال السنوات الخمس إلى العشرين القادمة.
اقتراح غرائز الأمومة كحل
قدّم هينتون رؤية غير تقليدية تتمثل في دمج “غرائز الأمومة” في أنظمة الذكاء الاصطناعي المتقدمة.
في مقابلة سابقة مع شبكة CNN، شبه هينتون العلاقة بين الذكاء الاصطناعي والبشر بسيطرة الطفل على الأم بفضل غرائزها الأمومية، مشيرًا إلى أن هذه المشاعر المبرمجة يمكن أن تمنع الذكاء الاصطناعي من إيذاء البشر حتى لو تفوق عليهم ذكاءً.
وأكد أن الشركات يجب أن تركز على تطوير مثل هذه الآليات بدلاً من السعي لزيادة ذكاء الأنظمة دون ضوابط.
تأييد يان ليكون : الذكاء الاصطناعي الموجه نحو الأهداف
يشارك يان ليكون، رئيس علماء الذكاء الاصطناعي في شركة “ميتا” وأحد رواد المجال، هينتون في مخاوفه، لكنه يقترح نهجًا أكثر تركيزًا على “الذكاء الاصطناعي الموجه نحو الأهداف”.
في منشور على حسابه في “لينكدإن”، أوضح ليكون أن المستقبل يكمن في تصميم أنظمة تلتزم بتعليمات البشر مع دمج التعاطف والانصياع التام لتجنب تقديم معلومات مضللة أو نصائح ضارة.
هذا النهج يهدف إلى ضمان أن تظل الأنظمة موجهة نحو تحقيق أهداف البشر دون التسبب في ضرر.
وجهات نظر متباينة
على الرغم من التحذيرات، لم تلق آراء هينتون إجماعًا.
فقد عارضت فاي فاي لي، الباحثة البارزة في الذكاء الاصطناعي، نهج هينتون، داعية إلى تطوير ذكاء اصطناعي متمركز حول الإنسان يحافظ على كرامته وفاعليته بدلاً من التركيز على المخاطر فقط.
هذا الاختلاف يعكس النقاش الدائر حول كيفية موازنة التقدم التكنولوجي مع السلامة.
دعوة إلى تعاون عالمي
شدد هينتون على أن مواجهة التهديد الوجودي للذكاء الاصطناعي تتطلب تعاونًا دوليًا، مشبهاً إياه بالتعاون بين الولايات المتحدة والاتحاد السوفيتي خلال الحرب الباردة لمنع كارثة نووية.
و أعرب عن ندمه على تركيزه المبكر على تطوير الذكاء الاصطناعي دون الاهتمام الكافي بقضايا السلامة، داعيًا إلى ضغط مجتمعي لضمان تنظيم صارم للشركات التكنولوجية.