الحكم على مدعية عامة أمريكية استعملت الذكاء الاصطناعي في إعداد مذكرة ترافعية في ملف جنائي

07/05/2026 - 16:00
الحكم على مدعية عامة أمريكية استعملت الذكاء الاصطناعي في إعداد مذكرة ترافعية في ملف جنائي

أثار استخدام الذكاء الاصطناعي من طرف مدعية عامة في ملف جنائي جدلاً في الولايات المتحدة، بعدما قررت المحكمة العليا بولاية جورجيا معاقبة المدعية العامة بسبب تضمين مذكرة قانونية مراجع وأحكاما قضائية غير حقيقية، في قضية تتعلق بجريمة قتل.

ووفق ما أوردته وكالة رويترز، فإن المدعية العامة المساعدة ديبورا ليزلي، التابعة لمكتب الادعاء في مقاطعة كلايتون بولاية جورجيا، قدمت مذكرة قانونية تضمنت استشهادات قضائية « مختلقة » تبين لاحقاً أنها ناتجة عن استخدام أدوات الذكاء الاصطناعي دون التحقق من صحة المعلومات الواردة فيها.

وترتبط القضية بمحاكمة أمريكية تدعى هانا باين، المدانة بالسجن المؤبد إضافة إلى 13 سنة، بعد إدانتها بقتل كينيث هيرينغ واحتجازه. وكانت هيئة الدفاع قد تقدمت بطلب لإعادة المحاكمة، غير أن المحكمة الابتدائية رفضت الطلب استنادا جزئيا إلى مشروع قرار أعدته المدعية العامة المعنية، قبل أن يُكتشف لاحقاً أن الوثيقة تضمنت سوابق قضائية غير حقيقية.

واعتبرت المحكمة العليا في جورجيا أن ما وقع يمثل إخلالاً خطيراً بواجبات المحامي المهنية، مؤكدة أن الاعتماد على أدوات الذكاء الاصطناعي لا يعفي رجال القانون من مسؤولية التحقق من دقة المراجع القانونية قبل تقديمها إلى القضاء.

وقررت المحكمة منع المدعية العامة من الترافع أمام المحكمة العليا لمدة ستة أشهر، مع إلزامها بالخضوع لتكوينات متخصصة في أخلاقيات المهنة واستخدام الذكاء الاصطناعي في العمل القانوني، كما أمرت بإلغاء القرار السابق وإعادة الملف إلى المحكمة الابتدائية لإصدار قرار جديد خال من الأخطاء.

وأكد القاضي بنجامين لاند، في القرار الصادر عن المحكمة، أن “كل محام مسؤول شخصياً عن التأكد من صحة الإحالات القانونية التي يضعها في مذكراته، بغض النظر عن الوسيلة المستعملة في إعدادها”.

وتعد هذه القضية من أبرز القضايا الحديثة التي تكشف المخاطر المرتبطة بالاستخدام غير المهني للذكاء الاصطناعي داخل المنظومة القضائية الأمريكية، خاصة بعد تزايد حالات تقديم مذكرات قانونية تتضمن أحكاماً أو مراجع وهمية أنشأتها تطبيقات الذكاء الاصطناعي التوليدي.

ويرى متابعون أن الواقعة قد تدفع المحاكم الأمريكية إلى تشديد الرقابة على استخدام هذه الأدوات داخل العمل القضائي، في ظل تنامي المخاوف من تأثير “هلوسات الذكاء الاصطناعي” على نزاهة الإجراءات والأحكام القضائية.

شارك المقال