عروض واعلانات
المجتمع المدني

أخطاء الذكاء الاصطناعي تهز أروقة القضاء الأميركي

تيلي ناظور : نوفل سنوسي

في تطور مقلق يعكس المخاطر المرتبطة بالاعتماد على الذكاء الاصطناعي في القضاء، ألغى قاضيان فيدراليان في الولايات المتحدة أحكامهما في قضيتين منفصلتين بولايتي ميسيسيبي و نيوجيرسي، بعد اكتشاف أخطاء جوهرية ناتجة عن استخدام الذكاء الاصطناعي في مذكرات قانونية.

هذه الحوادث تسلط الضوء على التحديات التي تواجه المحاكم مع تزايد استخدام التقنيات الذكية، وتثير تساؤلات حول المسؤولية القانونية و ضرورة التدقيق في المواد المقدمة.

في هذا المقال، نستعرض تفاصيل هذه القضايا، أسباب الأخطاء، وتداعياتها على النظام القضائي.

القضية الأولى : ميسيسيبي و أخطاء الحكم القضائي

في 23 يوليو 2025، ألغى القاضي الفيدرالي هنري وينغيت في ميسيسيبي أمرًا مؤقتًا أصدره في دعوى تتعلق بالحقوق المدنية، بعد أن كشف محامو الولاية عن أخطاء فادحة في الحكم.

وفقًا لشبكة «فوكس نيوز»، تضمن الأمر إفادات مزعومة لأربعة أفراد لم تُدرج إفاداتهم في سجل القضية، إضافة إلى ادعاءات لم تكن واردة في الشكوى الأصلية.

أكد مصدر مطلع للشبكة أن هذه الأخطاء نجمت عن استخدام الذكاء الاصطناعي في إعداد الملفات القضائية، واصفًا الوضع بأنه « غير مسبوق » في تاريخ القضاء.

الأمر المثير للقلق هو أن الحكم المصحح الذي أصدره و ينغيت لاحقًا استمر في الإشارة إلى قضية من عام 1974 لا وجود لها، مما زاد من الشكوك حول مدى الاعتماد على أدوات الذكاء الاصطناعي دون تدقيق كافٍ.

القضية الثانية : نيوجيرسي و « الاقتباسات الملفقة »

في اليوم نفسه، سحب القاضي جوليان نيلز في نيوجيرسي حكمًا أصدره في دعوى متعلقة بالأوراق المالية، بعد أن أبلغه محامو الدفاع بأن الحكم اعتمد على ملفات تحتوي على «أخطاء جوهرية» و «اقتباسات ملفقة» لا توجد في القضايا المذكورة.

وأشار المحامون إلى ثلاث حالات تم الاستشهاد بها بشكل خاطئ، إضافة إلى اقتباسات منسوبة إلى المدعين لم يقولوها.

وفقًا لمصدر مطلع، تم إدراج بحوث تم إعدادها باستخدام الذكاء الاصطناعي في مسودة الحكم عن طريق الخطأ، قبل مراجعتها من قبل موظف مؤقت، مما يكشف عن ثغرات في سياسات المحكمة حول استخدام الذكاء الاصطناعي.

قاض أمريكي يقبل دعوى تمييز ديني تقدمت بها اسرة مسلمة - العمق المغربي

مسؤولية المحامين و العقوبات

أكدت نقابة المحامين الأميركية أن المحامين مسؤولون عن ضمان صحة جميع المعلومات الواردة في المذكرات القضائية، بما في ذلك المواد المولدة بواسطة الذكاء الاصطناعي.

هذا المبدأ أصبح موضع اختبار في عدة حالات حديثة.

على سبيل المثال، في مايو 2025، فرض قاضٍ فيدرالي في كاليفورنيا غرامات بقيمة 31 ألف دولار على شركات محاماة بسبب استخدامها الذكاء الاصطناعي في إعداد مذكرات تحتوي على أخطاء، مشددًا على أن أي محامٍ كفء يجب أن يتحقق من دقة هذه المواد.

وفي الأسبوع الماضي، عاقب قاضٍ فيدرالي في ألاباما ثلاثة محامين بعد تقديمهم مذكرات تحتوي على استشهادات ملفقة تم إنشاؤها بواسطة «تشات جي بي تي»، مما يبرز المخاطر المستمرة للاعتماد غير المدروس على الذكاء الاصطناعي.

مخاطر الذكاء الاصطناعي في القضاء

تُعرف الأخطاء الناتجة عن الذكاء الاصطناعي باسم «الهلوسات» (Hallucinations)، وهي مصطلح يُستخدم لوصف المعلومات الملفقة أو غير الدقيقة التي تُنتجها الأنظمة الذكية.

هذه الظاهرة ليست جديدة، فقد سجلت قاعدة بيانات عالمية تضم حوالي 250 حالة تتعلق بأخطاء الذكاء الاصطناعي في الملفات القانونية، منها أربع حالات تتعلق بأحكام قضائية.

وأشار خبراء، مثل أستاذ القانون بجامعة أريزونا كيث سويشر، إلى أن مثل هذه الأخطاء قد تصبح أكثر شيوعًا مع تزايد استخدام أدوات الذكاء الاصطناعي في المحاكم.

ويحذر الخبراء من أن الاعتماد المفرط على هذه التقنيات دون تدقيق يهدد الثقة العامة في النظام القضائي.

دعوات لزيادة التدقيق و التدريب

دعت شخصيات قانونية، مثل أستاذ القانون بجامعة ولاية أريزونا غاري مارشونت، إلى ضرورة تدريب القضاة على استخدام أدوات الذكاء الاصطناعي بشكل صحيح لتجنب هذه الأخطاء.

وأكد أن الحفاظ على الثقة العامة في المحاكم يتطلب ضمان دقة المخرجات التي تُنتجها هذه الأدوات.

في جورجيا، أصدرت اللجنة القضائية تقريرًا في يوليو 2025 يقدم توصيات للحفاظ على الثقة العامة في النظام القضائي مع زيادة استخدام الذكاء الاصطناعي، بما في ذلك وضع إرشادات واضحة لاستخدامه في المحاكم.

الخاتمة

تُظهر الحوادث الأخيرة في ميسيسيبي ونيوجيرسي الحاجة الملحة إلى وضع ضوابط صارمة لاستخدام الذكاء الاصطناعي في القضاء.

بينما توفر هذه التقنيات فرصًا لتحسين الكفاءة، فإن مخاطرها، مثل الهلوسات والمعلومات الملفقة، تهدد نزاهة العملية القضائية.

يتطلب الأمر تعاونًا بين القضاة والمحامين والمشرعين لوضع سياسات تضمن الاستخدام المسؤول لهذه التقنيات، مع الحفاظ على الثقة في النظام القضائي.

ومع استمرار تطور الذكاء الاصطناعي، يبقى السؤال : هل ستصبح هذه الأدوات مساعدًا موثوقًا أم تهديدًا للعدالة؟

مقالات مشابهة

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button
error: المحتوى محمي وفق سياسة الموقع.