الرؤية- كريم الدسوقي
وجدت الأمريكية أنجيلا لييس، نفسها خلف القضبان لنحو 6 أشهر، بعد أن أخطأ نظام التعرف على الوجوه في تحديد هويتها، ليتحول "تشابه رقمي" إلى مأساة إنسانية.
القصة بدأت عندما اعتمدت جهات إنفاذ القانون على نظام للتعرف على الوجوه لتحديد هوية مشتبه بها في قضية سرقة، وأشار النظام إلى تطابق بين صورة المشتبه بها وصورة السيدة ذات الـ50 عامًا؛ ما أدى إلى توقيفها واتهامها بالجريمة، رغم عدم وجود أدلة تدعم هذا الاشتباه.
ويعود السبب في ذلك إلى برنامج ذكاء اصطناعي للتعرف على الوجوه قام بتحليل لقطات كاميرات مراقبة لمشتبه بها استخدمت بطاقة هوية عسكرية مزيفة لسحب آلاف الدولارات، ثم "طابق" ملامحها مع صورة ليبس.
هذا التطابق دفع محققا إلى مراجعة حساباتها على مواقع التواصل ورخصة قيادتها، ليقرر اعتمادا على التشابه أنها الجانية، ومن هنا بدأت المأساة.
قضت ليبس نحو 6 أشهر في سجن محلي بولاية تينيسي دون كفالة، بانتظار نقلها إلى داكوتا الشمالية، قبل أن يتم ترحيلها بالفعل لمسافة تتجاوز 1000 ميل، لتواجه اتهامات تشمل سرقة وانتحال هوية.
المفارقة أن الشرطة لم تحقق معها فعليًا إلّا بعد أشهر من احتجازها، وعندما تدخل محامٍ في القضية كانت المفاجأة صادمة، فسجلاتها البنكية أثبتت أنها كانت في تينيسي وقت وقوع الجرائم، حيث كانت تقوم بمعاملات يومية عادية مثل إيداع شيكات وشراء الطعام، أي على بعد أكثر من 1200 ميل من موقع الجريمة.
وبعد ذلك، أُسقطت التهم في ديسمبر، وأُطلق سراح لييس، بعد فوات الأوان، فالخسائر لم تكن قانونية فقط، بل حياتية؛ إذ فقدت منزلها وسيارتها وحتى كلبها نتيجة عدم قدرتها على دفع التزاماتها أثناء السجن، كما خرجت من التجربة دون اعتذار رسمي من الجهات المعنية؛ بل تُركت في داكوتا الشمالية دون دعم للعودة إلى منزلها.
القضية أثارت موجة من الانتقادات؛ حيث اعتبرها كثيرون مثالا واضحا على ضرورة وضع ضوابط صارمة لاستخدام الذكاء الاصطناعي في إنفاذ القانون، والتأكد من عدم الاعتماد عليه بشكل أعمى دون مراجعة بشرية دقيقة.
كما أعادت الحادثة فتح النقاش حول المسؤولية: من يتحمل تبعات هذا الخطأ؟ هل هي الجهة التي طورت النظام؟ أم الجهة التي استخدمته؟ أم أن المسؤولية مشتركة في ظل غياب تشريعات واضحة تنظم هذه التقنيات؟
