مؤيد الزعبي
كثيرًا ما نتساءل أنا وأنت عزيزي القارئ وآخرون كُثر عن طبيعة علاقتنا بالتكنولوجيا وبالذكاء الاصطناعي تحديدًا، هل علاقتنا يحكمها الانبهار من قدراته أم الخوف من إمكانيته المتطورة، خصوصًا ونحن نتحدث عن ذكاء اصطناعي أصبح اليوم كيانًا يفكر ويحلل ويقترح ويُنتج؛ بل ويُبدع أحيانًا.
ومنذ اللحظة التي دخلنا بها عصر الذكاء الاصطناعي التوليدي (GenAI)لم يعد السؤال: ماذا يمكن للتقنية أن تفعل لنا؟ بل: إلى أي مدى يمكنها أن تُخيفنا؟ ولهذا كان لا بُد من وجود ضمير واعٍ للذكاء الاصطناعي، وهذا ما بات يسمى بالذكاء الاصطناعي القابل للتفسير (XAI) ليضع لهذه الثورة ضوابط أخلاقية وحدودًا من الشفافية والمساءلة؛ فقضيتنا الأساسية اليوم لم تعد في مدى قدرة الآلة أو البرمجيات على الإبداع والعطاء؛ بل في مدى قدرتنا نحن كبشر على فهم دوافعها ونتائج قراراتها والكيفية التي توصلت بها لهذه النتائج أو القرارات.
الذكاء الاصطناعي القابل للتفسير (XAI) لا يقل أهمية عن الذكاء الاصطناعي التوليدي، وهذا الاتجاه الجديد يسعى إلى جعل أنظمة الذكاء الاصطناعي أكثر شفافية، بحيث لا تكتفي بإعطائنا الإجابة؛ بل تشرح لنا كيف وصلت إليها؛ إذ إن الأمر لم يعد مجرد برمجة خوارزميات ذكية؛ بل بناء “عقول رقمية” يمكن الوثوق بها وبقراراتها، خاصة في القطاعات الحساسة مثل الطب والتمويل والأمن وحتى القضاء والمجالات العسكرية، فهذه القطاعات الحساسة تحتاج لتقنيات موثوقة نثق بها ونستطيع فهم قراراتها وبالتالي نستطيع تعديل برمجتها لضمان نتائج أفضل.
العالم اليوم لا يشهد فقط تنافسًا بين الشركات على صناعة الذكاء الاصطناعي؛ بل هو أقرب لصراع فكري بين فلسفتين: فلسفة الإبداع غير المحدود كما تمثلها نماذج الذكاء الاصطناعي التوليدي، وفلسفة الشفافية والمساءلة كما يُجسدها الذكاء الاصطناعي القابل للتفسير. وهذا ما أجده أمرًا إيجابيًا. صحيحٌ أن التنافس بين شركات التكنولوجيا سيجعل الكثير منها غير مسؤول عما تُنتجه من برمجيات وما تُبرمجه من خوارزميات، إلّا أن وجود تطبيقات أكثر تفسيرًا وانضباطًا من الناحية الأخلاقية سيجعل المستخدمين من أفراد وشركات وحكومات يتجون نحو البرمجيات الأكثر موثوقية ما يخلق حالة من التوازن بين الفلسفتين.
وما سيحدد شكل الذكاء الاصطناعي المستقبلي يكمن في قدرتنا على الموازنة بين الإبداع والضمير؛ فالقوة التوليدية وحدها لا تكفي، كما إن الشفافية وحدها لا تُنتج التقدم المطلوب وقد تُعيقه في بعض الأحيان، ولهذا العالم بحاجة إلى مزيج متوازن: ذكاء يُبدع لكنه يُفسِّر؛ ذكاء يُنتج لكنه يُحاسَب، فكما لا نثق بالطبيب الذي لا يشرح تشخيصه لمرضاه، فلن نثق بالآلة التي لا تشرح قراراتها وتُفسِّرها، وفهمنا لطريقة تفكير الذكاء الاصطناعي يعني أننا نحتفظ بقدرتنا على السيطرة عليه، ونمنع تحوله إلى كيانٍ غامضٍ يتخذ قرارات لا نفهمها، ومع ازدياد اعتماد الحكومات والمؤسسات على هذه الأنظمة، لا تصبح الشفافية ترفًا؛ بل ضرورة وجودية لحماية الثقة بين الإنسان والآلة، والآلة هنا قد تمثل قطاعات مؤسسية أو مؤسسات حكومية والثقة هنا عنصر أساسي لا يمكننا تجاهلها.
الكثير من دول العالم تسعى لخلق هذا التوازان، وتسعى القوانين العالمية الجديدة إلى تنظيم استخدام الذكاء الاصطناعي، وإجبار الشركات على توضيح كيفية تدريب نماذجها ومصادر بياناتها، وهذا بحد ذاته تطور مهم؛ لأنه يُذكِّرنا أن التكنولوجيا مهما بلغت من تعقيد يجب أن تظل خاضعة للمساءلة والرقابة البشرية، ووجود من يرعى هذه الرقابة يضع مسؤولية كبيرة على الشركات المبرمجة للذكاء الاصطناعي، وبالتالي خلقها لأنظمة مشبوهة أو مسيئة سيخضعها للمساءلة؛ مما يعني أن الإقدام على مثل هذه الأفعال سيكون محفوفًا بالمخاطر التي تُتجنها الكثير من الشركات أولًا لحماية أسمها وثانيًا لتنافسيتها المحتدمة مع مثيلاتها، وكل هذا يصب في مصلحتنا كمستخدمين للذكاء الاصطناعي.
قد أختلف مع الكثيرين في هذا الرأي ولكن أجدُ أن المستقبل الحقيقي لن يكون للآلة التي تُفكِّر مثل الإنسان؛ بل لتلك التي تفكر مع الإنسان، فنحن لا نحتاج إلى ذكاء اصطناعي يحل محلنا؛ بل إلى ذكاء يعزز قدراتنا ويكمل إنسانيتنا. وGenAI يمثل القوة الخلاقة التي تدفع العالم إلى الأمام، بينما يمثل XAI الضمير الذي يضمن أن هذا التقدم لن ينقلب علينا يومًا ما.
إنَّ التحدي القادم ليس في بناء آلة أكثر ذكاءً؛ بل في بناء منظومة تجعل من الذكاء الاصطناعي شريكًا مسؤولًا في صنع القرار، لا مجرد أداة عمياء تنفذ طلباتنا وتُلبي طموحاتنا البشرية، فالعالم لن يُقاس بعد اليوم بما ننتجه من بيانات؛ بل بما نفهمه من قرارات بعد معالجة تلك البيانات، وما نحتاجه اليوم ليس "ذكاءً خارقًا"؛ بل "حكمة وضمير رقمي" تحفظ لنا توازننا بين الإبداع والمساءلة، فنحن لن نستطيع أن نواجه مخاطر الذكاء الاصطناعي إلّا بالذكاء الاصطناعي نفسه، وهذه قاعدة يجب أن لا ننساها أبدًا!
