عواصم- الوكالات
في ظل الانتشار المتسارع لتقنيات الذكاء الاصطناعي التوليدي والأنظمة اللغوية الكبيرة، عاد الجدل حول الخصوصية الرقمية إلى الواجهة، وسط تساؤلات متزايدة عمّا إذا كانت الأدوات الذكية التي تسهّل حياتنا اليومية تحولت إلى وسائل خفية لمراقبة المستخدمين وجمع بياناتهم على مدار الساعة.
وخلال العقد الماضي، ارتبط مفهوم التجسس بكاميرات المراقبة أو البرمجيات الخبيثة، إلا أن التطور الحالي نقل المخاوف إلى مستوى أكثر تعقيدًا، يتمثل في الاعتماد الواسع على البيانات الضخمة بوصفها “وقود” الذكاء الاصطناعي. وتشمل هذه البيانات سجلات البحث، والمواقع الجغرافية، والرسائل النصية، ونبرات الصوت، وسلوك المستخدم الرقمي.
ويرى خبراء أن السؤال لم يعد حول ما إذا كان الذكاء الاصطناعي يجمع بيانات المستخدمين — فذلك أمر محسوم — بل حول طبيعة استخدام هذه البيانات، وما إذا كانت تُستغل لأغراض غير معلنة. فشركات التكنولوجيا تؤكد أن المستخدمين يمنحون موافقتهم عبر شروط الاستخدام، في حين يعتبر مدافعون عن الخصوصية أن هذا “الإذن” شكلي ولا يعكس وعيًا حقيقيًا بحجم البيانات التي تُجمع.
وتشمل أبرز المخاوف اعتماد المساعدات الصوتية مثل “أليكسا” و“سيري” و“مساعد غوغل” على ما يُعرف بـ“الاستماع السلبي”، حيث يبقى الميكروفون في حالة تشغيل دائمة انتظارًا لكلمة التنبيه، ما أثار جدلًا واسعًا بعد تقارير عن تسجيل محادثات عرضية وإرسالها إلى خوادم سحابية لتحسين الخدمة.
كما يتجاوز القلق مسألة تسجيل الصوت إلى التتبع السلوكي والتحليل التنبؤي، إذ تستطيع الخوارزميات — عبر تحليل الموقع والمشتريات وأنماط الاستخدام — استنتاج معلومات حساسة عن الأفراد، مثل حالتهم الصحية أو خططهم المهنية، قبل أن يدركوها هم أنفسهم.
ومع دخول أدوات الذكاء الاصطناعي إلى أماكن العمل، بدأت بعض الشركات في استخدامها لمراقبة إنتاجية الموظفين، عبر تحليل سرعة الكتابة ونبرة الرسائل والتفاعل في الاجتماعات الافتراضية، ما يخلق بيئة مراقبة شاملة يشعر فيها الموظف بأنه تحت المتابعة المستمرة.
وتؤكد شركات التكنولوجيا الكبرى أن البيانات تُعالج بشكل مجهول، وأن النماذج الحديثة تعتمد المعالجة المحلية لتقليل نقل البيانات إلى السحابة. غير أن حوادث تسريب البيانات والدعاوى القضائية في عامي 2024 و2025، أعادت التشكيك في فعالية هذه الضمانات، خاصة مع اتهامات باستخدام بيانات المستخدمين لتدريب نماذج ذكاء اصطناعي دون موافقة صريحة.
وعلى الصعيد التشريعي، يُعد “قانون الذكاء الاصطناعي” الأوروبي الأكثر صرامة عالميًا، إذ يقيّد أنظمة المراقبة البيومترية ويحظر “التنقيط الاجتماعي”، بينما لا تزال تشريعات دول أخرى متأخرة عن وتيرة الابتكار، ما يترك فجوات قانونية واسعة.
وينصح مختصون بتقليل البصمة الرقمية عبر مراجعة أذونات التطبيقات، واستخدام أوضاع التصفح الخاصة، والاعتماد على تطبيقات مشفرة، إلى جانب تعزيز الوعي بأن الخدمات “المجانية” غالبًا ما يكون ثمنها البيانات الشخصية.
ويخلص الخبراء إلى أن الذكاء الاصطناعي ليس شريرًا بطبيعته، بل أداة قوية تفتقر إلى الأخلاق الذاتية، وأن المشكلة الحقيقية تكمن في “الاستغلال المنهجي للبيانات”. وفي ظل هذا الواقع، تبرز الحاجة إلى عقد اجتماعي جديد يوازن بين الرفاهية الرقمية وحماية الخصوصية، ويضمن بقاء الذكاء الاصطناعي خادمًا للإنسان لا رقيبًا عليه.
