نتائج الذكاء الاصطناعي يجب أن تخضع لفحص دقيق
اتخذ قاض أمريكي خطوة غير مسبوقة، بهدف عدم تكرار واقعة حدثت قبل أيام، بعدما اعترف محام أمريكي باستخدام الذكاء الاصطناعي في التحضير لقضاياه أمام المحاكم.
ووضع القاضي الفيدرالي في تكساس برانتلي ستار، شرطا مفاده أن أي محام يمثل أمام محكمته يجب أن يشهد على أنه “لم تتم صياغة أي جزء من الملف بواسطة الذكاء الاصطناعي التوليدي”، أو إذا كان الأمر كذلك، فقد تم التحقق منه “من قبل إنسان”.
وألزم القاضي جميع المحامين الذين يمثلون أمام المحكمة بتقديم شهادة في ملف القضية تثبت إما أنه لم تتم صياغة أي جزء من ملف القضية بواسطة الذكاء الاصطناعي التوليدي مثل ChatGPT أو Google Bard، وأن جزئية تمت صياغتها بواسطة تلك النماذج فإنه تم التحقق من دقتها جيدًا بواسطة البشر.
وتم إرفاق استمارة لتوقيع المحامين عليها، مع ملاحظة أن “الاقتباسات، والاستشهادات والتأكيدات المعاد صياغتها، والتحليل القانوني” يشملها هذا الحظر.
وفي حين أن هذا مجرد قاضٍ واحد في محكمة واحدة بالولايات المتحدة، فلن يكون من المستغرب أن يتخذ الآخرون هذه القاعدة على أنها خاصة بهم.
بينما تقول المحكمة إن هذه تقنية قوية ومن المحتمل أن تكون مفيدة، لكن يجب أن يكون استخدامها على الأقل معلنًا بوضوح ويتم فحص دقته.
بداية الأزمة
جاء ذلك في أعقاب واقعة أحدثت جدلاً واسعًا، بعدما اعترف المحامي الأمريكي ستيفن شوارتز، بأنه استخدم روبوت الدردشة الشهير ChatGPT بـ”تكملة” بحثه القانوني في ملف فيدرالي حديث، مما زوده بـ6 قضايا وسابقة ذات صلة، لكن تبين لقاضي المحكمة أن محامي الادعاء أشار إلى سوابق قضائية غير موجودة في الواقع.
وقال المحامي للمحكمة إنه “لم يكن يعلم أن محتواها قد يكون خاطئا”، وأنه يأسف بشدة لهذا الفعل.
وينتج ChatGPT نصوصا أصلية تحت الطلب، مع تنبيه بأنها “قد تصدر معلومات غير دقيقة”.
وبعدما تم تحويل المحامي للمتابعة القضائية، ربما سيفكر أي محام آخر كثيرًا قبل محاولة استخدام ChatGPT في التحضير لقضيته.
وتتعلق القضية الأصلية بشخص يقاضي شركة طيران بشأن إصابة يزعم أنه تعرض لها. وسرد محاموه عددا من القضايا السابقة لتعزيز موقفه أمام المحكمة.ولكن دفاع
شركة الطيران كتبت إلى القاضي وتقول إنه لم يتم العثور على هذه القضايا التي وردت في عريضة الإدعاء.
وكتب القاضي في تقريره أن 6 من القضايا التي عرضها فريق الإدعاء لا وجود لها في الواقع، وطالبه بتفسير لذلك.
وتعهد المحامي بعدم استعمال الذكاء الاصطناعي مستقبلا في البحث القانوني، دون “التحقق التام من صحة المعلومة”.