top of page

الشرطة والمحاكم تتجه نحو الذكاء الاصطناعي… فهل نحن جاهزون للتغيير؟

  • صورة الكاتب: KDTS
    KDTS
  • 24 أكتوبر
  • 4 دقيقة قراءة
ree

بارومتر العراق/ كتب ضياء ثابت، استاذ الذكاء الاصطناعي في المعهد القضائي وخبير اليونسكو للاتصالات والمعلومات


أراقب منذ أسابيع الحراك الدولي في الوصول إلى قرار عالمي بخصوص استخدام الذكاء الاصطناعي في أنظمة إنفاذ القانون والعدالة والقضاء. وشدني ما نشره الصحفي (أندرو آر. تشاو – مراسل مجلة تايم)، في تحقيقه الصحفي الذي ركز على مخاطر وتحديات التحول في أعمال اجهزة إنفاذ القانون الى أنظمة الذكاء الاصطناعي في امريكا وبعض دول اوربا اذ حاول الاجابة عن تساؤل مهم جدا "هل يمكن استخدام الذكاء الاصطناعي لجعل نظام العدالة الجنائية أكثر عدلاً وكفاءة، أم أنه سيؤدي إلى ترسيخ التحيزات الضارة؟"

وتابعت عن كثب آراء الخبراء الذين يرون إن الذكاء الاصطناعي استُخدم حتى الآن بطرق مثيرة للقلق في الأنظمة الشرطوية وفي المحاكم، لكنهم يؤكدون أيضاً أن لديه قدرة حقيقية على إحداث تأثير إيجابي إذا أُدير بشكل مسؤول.

اليوم، وصلت تقنيات الذكاء الاصطناعي إلى كل جوانب نظام العدالة الجنائية تقريباً. فهي تُستخدم في أنظمة التعرّف على الوجوه لتحديد المشتبه بهم، وفي استراتيجيات التنبؤ بالجريمة ضمن خطط دوريات الشرطة ومفارز التفتيش ودورنات الضبط الجنائي، وفي إدارة القضايا داخل المحاكم، وحتى من قبل محامي الدفاع العام لتحليل الأدلة.

ويرى المؤيدون أن هذه الأدوات تزيد الكفاءة والعدالة، بينما يثير المنتقدون أسئلة خطيرة حول الخصوصية والمساءلة.


اليونسكو تؤسّس فريق عمل دولي لدراسة ادوار الذكاء الاصطناعي في القضاء

أطلق مجلس العدالة الجنائية (Council on Criminal Justice) بالتعاون مع اليونسكو الشهر الماضي فريق عمل فني حول الذكاء الاصطناعي، ولله الحمد اني عضوا مراقبا في الفريق انقل تجربة القضاء العراقي مع الذكاء الاصطناعي وان كانت تجربة متواضعة جدا حتى الان. الفريق الدولي يتولى مهمة دراسة كيفية استخدام الذكاء الاصطناعي في النظام القضائي بشكل آمن وأخلاقي.

ويدعم باحثو مؤسسة RAND عمل هذا الفريق، على أن تُرفع النتائج لاحقاً إلى صنّاع السياسات وأجهزة إنفاذ القانون.

يقول ناثان هكت، رئيس الفريق وقاضي المحكمة العليا السابق في تكساس:

لا شك أن الذكاء الاصطناعي يمكن أن يؤدي إلى نتائج غير عادلة. هدف هذا الفريق هو جمع خبراء التقنية والعدالة والمجتمع المدني معاً، لبحث كيفية استخدامه لتحسين النظام بدلاً من التسبب في الأذى الذي قد ينتج عنه.


مخاطر الذكاء الاصطناعي في إنفاذ القانون

قبل الخوض في ملف المخاطر علينا معرفة تحديين أساسيين هما (مقاومة التغيير) و(الفساد في هذه الموسسات) وهما يمثلان التحديات الابرز التي تدفع نحو رفض تبني أتمتة ذكية ونمذجة رقمية لهذه الأنظمة من قبل موسسات الشرطة وبعض الأجهزة العدلية والقضائية.

اما المخاطر فهي غالبا ترتبط بفرضية غياب المعايير في تطبيق هذه التقنيات، حيث يشعر المدافعون عن الحقوق المدنية بالقلق من أن وكالات إنفاذ القانون قد تستخدم الذكاء الاصطناعي بطريقة خطيرة.

فآلاف الوكالات تعتمد على تقنيات التعرف على الوجوه التي تبيعها شركات مثل Clearview، والتي باتت تمتلك قاعدة بيانات تحتوي على مليارات الصور التي جُمعت من الإنترنت.

وفي كثير من قواعد البيانات هذه على سبيل المثال في امريكا او اوربا، يكون السود ممثلين بنسبة أعلى لأنهم يعيشون في مجتمعات تتعرض لمراقبة مكثفة من قبل الشرطة. كما أن تقنيات الذكاء الاصطناعي أقل دقة في التمييز بين وجوه السود، مما يؤدي إلى ارتفاع معدلات الخطأ في تحديد الهوية.

وجد مشروع البراءة بالذكاء الاصطناعي (Innocence Project) العام الماضي أن هناك سبع حالات اعتقال خاطئة حصلت بسبب تقنية التعرف على الوجوه، ست منها لأشخاص سود.

يقول والتر كاتز، مدير السياسات في هذا المشروع:

الشرطة أحياناً تعتقل أشخاصاً بناءً فقط على نتائج الذكاء الاصطناعي، بدلاً من استخدامه كنقطة انطلاق للتحقيق. هناك اعتماد مفرط على مخرجات الذكاء الاصطناعي.”

وأضاف كاتز أنه عندما حضر مؤتمراً للشرطة العام الماضي:

كان الذكاء الاصطناعي في كل مكان. العارضون يروّجون بقوة لأدوات تقنية تزعم أنها ستحل جميع مشاكل إدارات الشرطة، لكن دون أي حديث جدي عن المخاطر أو التحديات.

ويحذر النقاد من أن هذه الأدوات قد تؤدي إلى زيادة المراقبة العامة، بما في ذلك مراقبة المتظاهرين السلميين، أو إلى تعزيز ممارسات الشرطة التنبؤية التي تركز على الأحياء التي تعاني أصلاً من الإفراط في الملاحقة الأمنية.


كيف يمكننا توظيف الذكاء الاصطناعي في العمليات القضائية وعمل الشرطة؟

يعترف كاتز بأن الذكاء الاصطناعي له دور مشروع داخل نظام العدالة:

“من الصعب جداً تخيّل عالم بلا ذكاء اصطناعي، وهناك أماكن يمكن أن يكون فيها مفيداً بالفعل.” لهذا السبب، انضم كاتز إلى فريق عمل مجلس العدالة الجنائية قائلاً: “الخطوة الأولى هي فهم مدى سرعة انتشار هذه التقنية. وإذا اتفق الجميع على أن غياب السياسات تماماً هو أسوأ خيار، يمكننا البناء من هناك.”

أما القاضي هكت، رئيس الفريق، فيرى مجالات واعدة يمكن للذكاء الاصطناعي أن يساعد فيها داخل المحاكم، مثل:

  • تحسين عملية استقبال الموقوفين،

  • المساعدة في تحديد المؤهلين لبرامج الإصلاح أو الصرف القضائي (diversion programs)،

  • وتقديم توصيات واضحة حول الاستخدامات التي يجب حظرها تماماً لحماية الخصوصية العامة.

  • البحث والتقصي لمساعدة ضباط وقضاة التحقيق

  • اختزال الأعمال الكتابية والأرشفة والتدقيق

  • الاتمتة والنمذجة في أنظمة الابلاغ والتواصل مع المتهمين والمدعين والمحامين الخ.


ابتكارات مستقلة في هذا المجال

ظهرت موخرا جهودا مستقلة عظيمة تهدف إلى استخدام الذكاء الاصطناعي لتحسين العمليات القضائية. على سبيل المثال، أسست ديفشي مهروترا شركة ناشئة تُدعى JusticeText، تسعى إلى تقليص الفجوة بين موارد الادعاء العام ومحامي الدفاع العام الذين يعانون من نقص كبير في الدعم.

طورت الشركة أداة تستخدم الذكاء الاصطناعي لتحليل ساعات من مكالمات الطوارئ (911)، ولقطات كاميرات الشرطة، والاستجوابات المسجلة، لتحديد ما إذا كانت الشرطة قد قدمت تصريحات متناقضة أو أسئلة موجهة.

تقول مهروترا: “أردنا أن نضع أنفسنا في موقع محامي الدفاع العام أولاً، وأن نحاول موازنة الملعب الذي كانت التكنولوجيا تميل فيه لصالح الطرف الأقوى خلال السنوات الماضية.”

تعمل JusticeText حالياً مع حوالي 75 وكالة دفاع عام في أنحاء الولايات المتحدة.

كما تعمل منظمة Recidiviz غير الربحية، المعنية بإصلاح العدالة الجنائية، على اختبار طرق مختلفة لاستخدام الذكاء الاصطناعي، مثل تزويد ضباط الإفراج المشروط بملخصات آلية عن حالات المفرج عنهم.

وكذلك التجربة الحديثة في الدرونات الشرطوية الجوالة التي ترتبط مع أنظمة الاتصالات الرقمية وتتبع خطوط SIM افتراضية او واقعية لضبط المبتزين والمهددين او المطلوب القاء القبض عليهم.

يقول احد خبراء البرنامج؛ “قد يكون لدى القاضي 80 صفحة من الملاحظات حول قضية واحدة، ولن يتمكن من قراءتها إذا كان لديه 150 حالة يتابعها شهرياً. هنا يمكن للذكاء الاصطناعي تلخيص أهم ما تحقق، وأين سيحتاج القاضي إلى دعم إضافي.”


التحدي أمام صانعي السياسات

يبقى التحدي الأكبر أمام صانعي القرار وفريق مجلس العدالة الجنائية هو وضع معايير وآليات رقابة تضمن أن فوائد الكفاءة الناتجة عن الذكاء الاصطناعي تفوق مخاطره في تعزيز التحيزات القائمة.

ويأمل الفريق الدولي مستقبلاً ان يتم تاسيس صندوق اسود تُتخذ فيه قرارات مصيرية من قبل الذكاء الاصطناعي دون تدخل بشري.

هل يجب أن نحافظ على مفاهيمنا التقليدية للعدالة الإنسانية؟ .

هل يجب أن يظل القضاة وأصحاب القرار في النظام القضائي هم المسيطرون تماماً؟ .

لكن القول إننا سنبقي الذكاء الاصطناعي خارج النظام القضائي أمر غير واقعي.

العالم يستخدمه، الاقتصاد يعتمد عليه، مكاتب المحاماة تستخدمه، والنظام المدني يستخدمه، إنه ببساطة أصبح جزءاً من الواقع الدائم.

انتهى.

ملاحظة “المحتوى مراقب ومتابع عبر تقنية AI Claimreview لتعقب السرقة والانتحال الأدبي".

©2025 by IRAQI-BAROMETER. 

bottom of page