لندن – السابعة الإخبارية
الذكاء الاصطناعي.. في سابقة تحمل دلالات خطيرة على مستقبل استخدام التكنولوجيا في الساحة القانونية، أصدرت القاضية البريطانية فيكتوريا شارب، من المحكمة العليا في لندن، تحذيرًا صارمًا للمحامين من مغبة استخدام أدوات الذكاء الاصطناعي لتوليد مرافعات قانونية تحتوي على سوابق مختلقة، مؤكدة أن هذا السلوك قد يُعرّض مرتكبيه لـ عقوبات قانونية وجنائية تصل إلى تهم تعمد عرقلة سير العدالة أو ازدراء المحكمة.

مخاطر “الذكاء الاصطناعي” في قاعات العدل
وجاء هذا التحذير في حكم مكتوب صدر الجمعة، عقب نظر القاضية في قضيتين منفصلتين اتضح فيهما أن محامين استعانوا بأدوات الذكاء الاصطناعي لإعداد مرافعات قانونية استندت إلى سوابق قضائية لم تحدث أصلًا.
وقد عبّرت القاضية شارب في حكمها عن قلقها البالغ، مشددةً على أن مثل هذه التصرفات تشكل خرقًا مباشرًا للواجب المهنيالملقى على عاتق المحامين بعدم تضليل المحكمة، مضيفة أن “الثقة في القضاء تقوم على الصدق والدقة، ولا يمكن السماح للأدوات التكنولوجية أن تقوّض هذا الأساس”.

الذكاء الاصطناعي.. تداعيات قانونية وأخلاقية خطيرة
قالت شارب في بيانها: “هناك تداعيات خطيرة على إقامة العدل وثقة الجمهور في النظام القضائي إذا أُسيء استخدام الذكاء الاصطناعي. تقديم مراجع قانونية وهمية قد يُعد في بعض الحالات جريمة جنائية بموجب القانون العام، ولا يجب التقليل من خطورة هذا الانتهاك.”
وأضافت أن المحامين الذين يلجأون إلى أدوات الذكاء الاصطناعي دون تحقق من صحة المعلومات يعرضون أنفسهم للمساءلة التأديبية والجنائية، مؤكدة أن المسؤولية لا تقع فقط على الأفراد، بل تشمل أيضًا المؤسسات الرقابية وقادة المهنة القانونية.
دعوة لتعزيز الضوابط وتثقيف المهنة من الذكاء الاصطناعي
في ضوء هذه الحوادث، دعت القاضية إلى اتخاذ إجراءات عملية حاسمة من قبل الهيئات التنظيمية لمهنة المحاماة، مشددة على ضرورة رفع الوعي بين المحامين بخصوص الضوابط الأخلاقية والقانونية لاستخدام التكنولوجيا الحديثة، وعلى رأسها أدوات الذكاء الاصطناعي التوليدي.
وقالت شارب: “الإرشادات وحدها لا تكفي لمعالجة سوء الاستخدام. نحن بحاجة إلى ثقافة مهنية جديدة تعترف بخطورة الاعتماد الأعمى على أدوات الذكاء الاصطناعي، وتؤسس لضوابط واضحة تنظم هذا الاستخدام.”
ويُذكر أن العديد من الهيئات القضائية حول العالم بدأت خلال الأشهر الماضية بإصدار إرشادات تنظيمية لاستخدام أدوات الذكاء الاصطناعي مثل “ChatGPT” في الأعمال القانونية، وذلك بعد تكرار وقائع مشابهة في كل من الولايات المتحدة وكندا وأستراليا، حيث جرى تأنيب أو معاقبة محامين على خلفية تقديم مستندات قانونية تحتوي على مراجع وهمية.

التحقق واجب أخلاقي لا ترف تقني من الذكاء الاصطناعي
المخاوف من إساءة استخدام الذكاء الاصطناعي لا تتعلق فقط بالجانب القانوني، بل تتصل بجوهر مهنة المحاماة، التي تقوم على الدقة والنزاهة والبحث الحقيقي.
وفي هذا السياق، أكد عدد من الخبراء أن استخدام تقنيات الذكاء الاصطناعي يجب أن يكون مساعدًا لا بديلًا للعقل القانوني المتخصص.
وفي تعليق له على الحكم، قال البروفيسور “مارك وايت”، أستاذ القانون في جامعة كينغز كوليدج لندن: “الذكاء الاصطناعي أداة قوية، لكنه غير معصوم من الخطأ. على المحامين أن يتعاملوا مع هذه الأدوات بحذر بالغ. لا يمكن نقل المسؤولية من الإنسان إلى الآلة حين يتعلق الأمر بالعدالة.”

رسالة واضحة للمهنة: لا عدالة بلا مسؤولية
رسالة القاضية شارب جاءت قوية وواضحة: العدالة لا يمكن أن تُترك لمخرجات خوارزميات قد تُضلل المستخدمين، والمحامون مُطالبون بتحقيق أعلى درجات التحري والتثبت في تعاملهم مع أدوات الذكاء الاصطناعي.
هذه الواقعة تدق ناقوس الخطر حول الثقة الزائدة في أدوات الذكاء الاصطناعي دون فهم عميق لطبيعتها وآلياتها، وتعيد التأكيد على أن التكنولوجيا لا تعفي المستخدم من المسؤولية، بل تُضاعف من أهمية المراجعة والنزاهة في الممارسة المهنية.
وفي وقت تتسارع فيه وتيرة الابتكار التكنولوجي، يبقى من الضروري أن يُواكب هذا التطور تحديثات تشريعية ومهنية تضمن استخدام الذكاء الاصطناعي كأداة داعمة للعدالة، لا عبئًا عليها.

وفي هذا السياق، أكد عدد من الخبراء أن استخدام تقنيات الذكاء الاصطناعي يجب أن يكون مساعدًا لا بديلًا للعقل القانوني المتخصص.
وفي تعليق له على الحكم، قال البروفيسور “مارك وايت”، أستاذ القانون في جامعة كينغز كوليدج لندن: “الذكاء الاصطناعي أداة قوية، لكنه غير معصوم من الخطأ. على المحامين أن يتعاملوا مع هذه الأدوات بحذر بالغ. لا يمكن نقل المسؤولية من الإنسان إلى الآلة حين يتعلق الأمر بالعدالة.”
أهم أدوات الذكاء الاصطناعي في وقتنا 😍⬇️ pic.twitter.com/LOIORCKQUq
— الذكاء الاصطناعي بالعربية (@AI_Arabic1) June 4, 2025