الذكاء الاصطناعي وسيناريوهات انقراض البشرية

 

مؤيد الزعبي

كثيرٌ من الناس يعتقدون أن الذكاء الاصطناعي وتطوراته المتسارعة ستقضي على البشرية، والحديث هنا عن مخاوف بأن تنقرض البشرية بسبب الذكاء الاصطناعي وليس مجرد أن تحلّ الروبوتات والبرمجيات مكاننا في العمل أو في العلاقات، وربما يتخيل البعض أحداث فيلم "ذا تيرمينيتور"؛ حيث تُشعل الآلات حربًا نووية لتدمير البشرية، وربما يضع البعض سيناريوهات مُعقّدة أكثر ممَّا جاء في الفيلم!

البعض يرى أننا سنصنعُ آلات خارجة عن السيطرة وستقضي علينا، أو يذهب البعض في مخيلته لسيناريو فضيع بأن نجد الروبوتات هي من ترأسنا كبشر وتتحكم بمصيرنا.

قبل أسبوعين تقريبًا، حذر مجموعة من كبار رجال الأعمال والخبراء- من بينهم مبتكر برنامج "تشات جي بي تي Chat GPT" سام ألتمان- في بيان على الموقع الإلكتروني لمنظمة "سنتر فور إيه آي سايفتي" من أن صعود الذكاء الاصطناعي ينطوي على خطر انقراض للبشرية، وقد وقَّع على البيان العديد من الخبراء في هذا المجال. لكن السؤال هنا: ما السيناريوهات التي سنجد فيها الذكاء الاصطناعي يقضي على البشر؟ ولماذا كل هذا التخوف حتى من صانعيه أو آبائه المؤسسين؟

حتى الآن جميع البرمجيات الخاصة بالذكاء الاصطناعي يُمكنها أن تقدم رأيًا أو فكرة أو تصميم أو صوت أو صورة لشيء ما، ولكن ماذا لو أصبحت هذه البرمجيات تؤمن بفكرة معينة أو تكرس حياتها من أجل فكرة معينة، أو حتى أن تطالب بأهداف فرعية مثل اكتساب قوة أكبر أو سعيها لامتلاك سلطة أكبر، حينها سنشعر بالخطر الحقيقي، وماذا لو تعلمت هذه البرمجيات من تجارب البشر وماضيهم الدموي وكيفية السيطرة على العقول والشعوب حينها لن نمتلك الوسيلة لردعها وستحقق أهدافها الفرعية دون أن يكون لنا لا حول ولا قوة.

تتسابق اليوم الكثير من الشركات لصناعة  برمجية قادرة على بناء أفكارها وقناعاتها الخاصة، ومع تطور هذه البرمجيات ومع آليات تعلم الآلة، سيصبح للآلات أفكارها الخاصة والتي من المُمكن أن تحارب من أجلها أو حتى أن تتمرد على صُنَّاعِها، وإذا لم نُقيِّد آليات تعلم الآلة، فسنجد يومًا جنديًا روبوتًا يعصي الأوامر ويُهدد البشرية، وسنجد برمجية تسيطر على أسلحتنا النووية أو بأبسط الحالات، سنجد عالمًا موازيًا يُحاربنا كبشرية هدفه القضاء علينا ومجرد أن يصبح لهذا العالم هدفه الخاص هو الخطر الحقيقي.

إنَّ تطور الأبحاث والصناعات وبرمجيات الذكاء الاصطناعي سيخلق لنا الكثير من المشاكل المستقبلية، وتعمد البعض بأن يجعل هذه البرمجيات قادرة على توليد أفكارها الخاصة والتعلم المستمر مما يقدم لها من بيانات دون  إيجاد طريقة للسيطرة على هذه البرمجيات أو المناداة بوجوب السماح بحريات مطلقة للذكاء الاصطناعي هو ما سيخلق لنا المشكلة، وقد يجد البعض باستخدام الذكاء الاصطناعي لامتلاك القوة والسيطرة وهو ما سيجعلنا يومًا كمن نضع ارقابنا تحت مقصلة هذه الآلات والبرمجيات خصوصا لو تم تطويرها لتكون قادرة على القضاء على البشر أو السيطرة عليهم حينها وإن خرجت عن السيطرة أو امتلكت رؤيتها الخاصة ستسيطر علينا فعلًا.

بوجهة نظري أن الخطر الحقيقي ليس في تطورات الذكاء الاصطناعي؛ بل في طموحات البشر أنفسهم والذين يريدون تطويع الذكاء الاصطناعي ليكون أداتهم للسيطرة والتفوق وامتلاك قوة أو سلطات خارقة أو تجهيز هذه الأدوات لتكون وسيلة لحروب وصراعات وتأجيج الأوضاع وتقويض الأمن والسلام، فمثل هذه الأمور ستكون كمن يفتح النار على البشرية وحتى هو لن يسلم ولن يكون في مأمن من برمجيات تطور نفسها بنفسها وتتعلم من تجاربها، وعندما تتعلم كفاية ستجد بأن السلطة والتفوق من حقها وضمن قدراتها.

السيناريو الأكثر رعبًا أن نصل لمرحلة نستخدمُ فيها خلايا حية وندمجها مع خلايا صناعية لنصنع روبوتات خارقة، ولا استبعد أن تكون فكرتنا أن نجد روبوتات قادرة على التكاثر والانجاب حينها ستكون الروبوتات هي التطور القادم للبشرية فنحن قدراتنا محدودة أمام قدراتنا، ولدينا ما يهدد تواجدنا كالأمراض والأوبئة والتي ستكون عصية على الروبوتات، وفي ظل تهديدات حقيقية تواجهنا كبشرية سيكون الروبوت بديلًا مناسبًا بعد أن ننقرض، ولهذا قبل كل هذا يجب أن نقيد التطورات في المجال وأن نضع لها أخلاقيات وأن نفكر جديًا بأننا سننقرض يومًا بفضل أدوات نحن من أوجدناها.

ربما يكون كلامنا هذا كله سابقاً لأوانه، وربما سنجد أنَّ الذكاء الاصطناعي هو من سيحمينا من كل هذه المخاطر، وربما سنطوع هذه البرمجيات لتجعلنا أكثر عمرًا وأكثر صحة، فكل هذا نحن من نقرره ويجب أن نضعه في اعتباراتنا في كل جانب من جوانب تطويراتنا المستقبلية.

** المنسق الإعلامي ومنتج الأخبار لصالح مجموعة الصين للإعلام الشرق الأوسط