الذكاء الاصطناعي العام

 

 

محمد بن سالم بن ناصر السناني **

يعرف الذكاء الاصطناعي العام (AGI) بأنه نوع من أنواع الذكاء الافتراضي، ويتمثل مفهوم الذكاء الاصطناعي العام في أنه يمكن تعلم إنجاز أي مهمة فكرية يمكن للإنسان أو الحيوانات الأخرى القيام بها. وكذلك تم تعريف الذكاء الاصطناعي العام على أنه نظام مستقل يتجاوز القدرات البشرية في غالبية المهام ذات القيمة الاقتصادية، ويعد إنشاء الذكاء الاصطناعي العام هدفًا أساسيًا لبعض أبحاث الذكاء الاصطناعي والشركات مثل Open AI، وDeep Mind، ويعتبر الذكاء الاصطناعي العام هو موضوع شائع في الخيال العلمي والدراسات المستقبلية.

ما زال الجدول الزمني لتطوير الذكاء الاصطناعي العام موضوع نقاش مستمر بين الباحثين والخبراء، ويجادل البعض بأن ذلك قد يكون ممكنًا في سنوات أو عقود، بينما يرى البعض الآخر أنه قد يستغرق قرنًا أو أكثر، وتعتقد أقلية أنه قد لا يتحقق أبدًا. إضافة إلى ذلك، ويرى الباحثين بأن هناك جدل حول ما إذا كانت أنظمة التعلم العميق الحديثة، مثل (GPT-4) هي شكل مبكر ولكن غير مكتمل من AGI أو ما إذا كانت هناك حاجة إلى مناهج جديدة، وبالتالي يوجد خلاف حول إمكانية أن يشكل الذكاء الاصطناعي العام خطراً على الإنسانية أو إنه يشكل خطر وجودي، بينما يرى آخرون أن تطوير الذكاء الاصطناعي العام هو بعيد جدًا بحيث لا يمثل خطرًا.

وفي عام 2020 جرى استطلاع شمل 72 مركز أبحاث وتعلم وتطوير في مجال الذكاء الاصطناعي العام منتشر في 37 دولة حول العالم مصطلح الذكاء الاصطناعي العام وأهميته وسماته والتحيات والمخاطر وخلص البحث إلى أن للذكاء الاصطناعي له تعريفات عدة منها يُعرف AGI أيضًا باسم الذكاء الاصطناعي القوي، الذكاء الاصطناعي الكامل، أو العمل الذكي العام، ومع ذلك، تحتفظ بعض المصادر الأكاديمية بمصطلح "الذكاء الاصطناعي القوي" لبرامج الكمبيوتر التي تختبر الإحساس أو الوعي، وفي المقابل، فإن الذكاء الاصطناعي الضعيف (أو الذكاء الاصطناعي الضيق) قادر على حل مشكلة واحدة محددة، لكنه يفتقر إلى القدرات المعرفية العامة، بينما تستخدم بعض المصادر الأكاديمية "الذكاء الاصطناعي الضعيف" للإشارة على نطاق أوسع إلى أي برامج لا تختبر وعيًا ولا تمتلك عقلًا بنفس معنى البشر، بينما تشمل المفاهيم ذات الصلة بالذكاء الاصطناعي على مستوى الإنسان، والذكاء الاصطناعي التحويلي، والذكاء الخارق.

سمات الذكاء الاصطناعي

ومن مميزات وسمات الذكاء الاصطناعي يعتقد الباحثون عمومًا أن الذكاء مطلوب للقيام بعدة مهام منها تحديد الأسباب، واستخدام الإستراتيجية، وحل الألغاز، وإصدار الأحكام في ظل عدم اليقين، وشمولية المعرفة، بما في ذلك معرفة الحس السليم والتخطيط، والتعلم، والتواصل بلغة طبيعية، وإذا لزم الأمر، يقوم بدمج هذه المهارات في إكمال أي هدف معين. تشمل الإمكانات المهمة الأخرى مثل القدرة على الإحساس (مثل الرؤية، والاستماع، وما إلى ذلك)، والقدرة على التصرف (مثل تحريك الأشياء ومعالجتها، وتغيير الموقع للاستكشاف، وما إلى ذلك، وهذا يشمل القدرة على اكتشاف والاستجابة للمخاطر، وتأخذ العديد من المناهج متعددة التخصصات (مثل العلوم المعرفية والذكاء الحسابي واتخاذ القرار) في الاعتبار سمات إضافية مثل الخيال والقدرة على تكوين صور ومفاهيم عقلية جديدة، والاستقلالية.، وكذلك توجد أنظمة قائمة على الكمبيوتر تُظهر العديد من هذه القدرات ومنها على سبيل المثال : الإبداع الحسابي، والتفكير الآلي، ونظام دعم القرار، والروبوت، والحساب التطوري، والعامل الذكي). ومع ذلك، لا يوجد إجماع على أن أنظمة الذكاء الاصطناعي الحديثة تمتلك هذه المميزات والسمات بدرجة كافية.

مشاكل الذكاء الاصطناعي الكاملة

هناك العديد من المشكلات التي قد تتطلب ذكاءً عامًا، إذا أرادت الآلات حل المشكلات كما يفعل الناس، على سبيل المثال، حتى المهام المباشرة المحددة، مثل الترجمة الآلية، تتطلب أن تقرأ الآلة وتكتب باللغتين (NLP)، وأن تتبع حجة المؤلف (السبب)، وأن تعرف ما الذي يتم الحديث عنه (المعرفة)، وتعيد إنتاج النص الأصلي للمؤلف بأمانة، ويجب حل كل هذه المشكلات في وقت واحد للوصول إلى أداء الآلة على المستوى البشري، وتسمى المشكلة بشكل غير رسمي "AI-Complete" أو "AI-hard" إذا كان يعتقد أن حلها يحتاج إلى تطبيق ذكاء اصطناعي قوي، لأن الحل يتجاوز قدرات خوارزمية محددة الغرض، ويُفترض أن تتضمن المشكلات الكاملة للذكاء الاصطناعي رؤية عامة للكمبيوتر وفهم اللغة الطبيعية والتعامل مع الظروف غير المتوقعة أثناء حل أي مشكلة في العالم الحقيقي، ولا يمكن حل مشاكل الذكاء الاصطناعي الكاملة باستخدام تكنولوجيا الكمبيوتر الحالية فقد تكون قديمة اعتبارًا من أبريل 2023.

تاريخ الذكاء الاصطناعي والذكاء الاصطناعي الرمزي

بدأت أبحاث الذكاء الاصطناعي الحديثة في منتصف الخمسينيات، وكان الجيل الأول من باحثي الذكاء الاصطناعي مقتنعين بأن الذكاء الاصطناعي العام ممكن وأنه سيكون موجودًا في غضون بضعة عقود فقط، وكتب رائد الذكاء الاصطناعي هربرت أ. سايمون في عام 1965: "ستكون الآلات قادرة، في غضون عشرين عامًا، على القيام بأي عمل يمكن لأي إنسان القيام به"، لقد كانت توقعاتهم مصدر إلهام لشخصية HAL 9000 لستانلي كوبريك وآرثر سي كلارك، والتي جسدت ما اعتقد باحثو الذكاء الاصطناعي أنه بإمكانهم إنشاؤه بحلول عام 2001. كان رائد الذكاء الاصطناعي مارفن مينسكي مستشارًا في مشروع جعل HAL 9000  واقعيًا قدر الإمكان وفقًا لتوقعات الإجماع في ذلك الوقت، وقال في عام 1967، "في غضون جيل ... سيتم حل مشكلة إنشاء" ذكاء اصطناعي "إلى حد كبير، و تم توجيه العديد من مشاريع الذكاء الاصطناعي الكلاسيكية، مثل مشروع دوج لينات Cyc (الذي بدأ في عام 1984)، ومشروع Allen Newell's Soar، ثم إلى AGI ومع ذلك، في أوائل السبعينيات، أصبح من الواضح أن الباحثين قد قللوا بشكل كبير من صعوبة المشروع، وأصبحت وكالات التمويل متشككة في الذكاء الاصطناعي العام ووضعت الباحثين تحت ضغط متزايد لإنتاج "ذكاء اصطناعي تطبيقي" مفيد، وفي أوائل الثمانينيات أعاد مشروع الكمبيوتر من الجيل الخامس الياباني الاهتمام بالذكاء الاصطناعي العام، ووضع جدول زمني مدته عشر سنوات يتضمن أهداف الذكاء الاصطناعي العام مثل "استمر في محادثة عادية"، واستجابة لذلك نجحت الأنظمة الخبيرة وقامت كل من الشركات المهتمة بالمجال والحكومة بضخ الأموال إلى الميدان، ومع ذلك، انهارت الثقة في الذكاء الاصطناعي بشكل مذهل في أواخر الثمانينيات، ولم تتحقق أهداف الجيل الخامس من مشروع الكمبيوتر للمرة الثانية خلال 20 عامًا، وأخطأ باحثو الذكاء الاصطناعي الذين توقعوا الإنجاز الوشيك للذكاء الاصطناعي العام، وبحلول التسعينيات اشتهر باحثو الذكاء الاصطناعي بتقديم وعود عبثية و أصبحوا مترددين في إجراء تنبؤات على الإطلاق وتجنبوا ذكر الذكاء الاصطناعي "على المستوى البشري" خوفًا من وصفهم بـ "الحالمين الجامحين". وفي أواخر التسعينيات وأوائل القرن الحادي والعشرين، حقق الذكاء الاصطناعي السائد نجاحًا تجاريًا واحترامًا أكاديميًا من خلال التركيز على مشكلات فرعية محددة حيث يمكن للذكاء الاصطناعي تحقيق نتائج يمكن التحقق منها تطبيقات تجارية، مثل الشبكات العصبية الاصطناعية والتعلم الآلي الإحصائي، وتُستخدم أنظمة "الذكاء الاصطناعي التطبيقي" هذه الآن على نطاق واسع في جميع أنحاء صناعة التكنولوجيا، ويتم تمويل الأبحاث في هذا السياق بشكل كبير في كل من الأوساط الأكاديمية والصناعية، اعتبارًا من عام 2018، كان التطوير في هذا المجال يمثل اتجاهًا ناشئًا، ومن المتوقع أن تحدث مرحلة ناضجة في أكثر من 10 سنوات، ويأمل معظم باحثي الذكاء الاصطناعي السائد في إمكانية تطوير ذكاء اصطناعي قوي من خلال الجمع بين البرامج التي تحل العديد من المشكلات الفرعية، وحسب ما كتب هانز مورافيك في عام 1988: " أنا واثق من أن هذا المسار التصاعدي للذكاء الاصطناعي سيلتقي يومًا ما بالطريق التقليدي من أعلى إلى أسفل بأكثر من نصف الطريق، وهو جاهز لتوفير الكفاءة في العالم الحقيقي والمعرفة المنطقية التي كانت محبطة للغاية في برامج التفكير وستنتج آلات ذكية تمامًا.

أبحاث الذكاء الاصطناعي العام الحديثة

تم استخدام مصطلح "الذكاء الاصطناعي العام" في وقت مبكر من عام 1997، من قبل مارك جوبرود في مناقشة الآثار المترتبة على عمليات الإنتاج والعمليات العسكرية المؤتمتة بالكامل، وتم إعادة تقديم المصطلح ونشره من قبل شين ليغ وبن جورتزل حوالي عام 2002، وصف Pei Wang و Ben Goertzel نشاط بحث AGI في عام 2006 بأنه "إنتاج منشورات ونتائج أولية". تم تنظيم أول مدرسة صيفية في AGI في شيامن، الصين في عام 2009 من قبل مختبر الدماغ الاصطناعي في جامعة شيامن و OpenCog. تم تقديم الدورة الجامعية الأولى في 2010 و 2011 في جامعة بلوفديف في بلغاريا من قبل تودور أرناودوف، وقدم معهد ماساتشوستس للتكنولوجيا دورة في الذكاء الاصطناعي العام في عام 2018، نظمها ليكس فريدمان وشارك فيها عدد من المحاضرين الضيوف، واعتبارًا من عام 2023، يكرس معظم باحثي الذكاء الاصطناعي القليل من الاهتمام للذكاء الاصطناعي العام، حيث يزعم البعض أن الذكاء معقد للغاية بحيث لا يمكن تكراره بالكامل على المدى القريب، ومع ذلك ينشط عدد قليل من علماء الكمبيوتر في أبحاث الذكاء الاصطناعي العام، والعديد منهم يساهم في سلسلة من مؤتمرات الذكاء الاصطناعي العام.

الجداول الزمنية للذكاء الاصطناعي

في مقدمة كتابه لعام 2006، يقول جورتزل أن تقديرات الوقت اللازم قبل بناء الذكاء الاصطناعي العام المرن تختلف من 10 سنوات إلى أكثر من قرن. اعتبارًا من عام 2007، بدا أن الإجماع في مجتمع أبحاث AGI هو أن الجدول الزمني الذي ناقشه راي كورزويل قريب (أي بين 2015 و2045) كان معقولًا، وقدم باحثو الذكاء الاصطناعي السائد مجموعة واسعة من الآراء حول ما إذا كان التقدم سيكون بهذه السرعة. وجد التحليل التلوي لعام 2012 لـ 95 رأيًا من هذا القبيل تحيزًا نحو التنبؤ بأن ظهور الذكاء الاصطناعي العام سيحدث في غضون 16-26 عامًا للتنبؤات الحديثة والتاريخية على حد سواء، وتعرضت هذه الورقة لانتقادات بسبب كيفية تصنيفها للآراء على أنها خبراء أو غير خبراء.

في عام 2012، طور كل من Alex Krizhevsky و Ilya Sutskever و Geoffrey Hinton شبكة عصبية تسمى AlexNet، والتي فازت في مسابقة ImageNet، وكان يُنظر إلى AlexNet على أنه أول من كسر الأرض لموجة التعلم العميق الحالية.

في عام 2017، أجرى الباحثون Feng Liu و Yong Shi و Ying Liu اختبارات ذكاء على الذكاء الاصطناعي الضعيف المتاح للجمهور والذي يمكن الوصول إليه مجانًا مثل Google AI و Apple's Siri وغيرها. كحد أقصى، وصلت هذه الذكاء الاصطناعي إلى ما يعادل تقريبًا ذكاء طفل يبلغ من العمر ست سنوات في الصف الأول. وبعد ذلك تم إجراء اختبارات مماثلة في عام 2014.

في عام 2020، طورت OpenAI GPT-3، وهو نموذج لغوي قادر على أداء العديد من المهام المتنوعة دون تدريب محدد. وفقًا لغاري غروسمان في مقال في VentureBeat، في حين أن هناك إجماعًا على أن GPT-3 ليس مثالًا على الذكاء الاصطناعي العام، إلا أنه يعتبره البعض متقدمًا جدًا بحيث لا يمكن تصنيفه على أنه نظام ذكاء اصطناعي ضيق، وفي نفس العام، استخدم Jason Rohrer حساب GPT-3 الخاص به لتطوير روبوت محادثة، وقدم منصة تطوير روبوت محادثة تسمى "Project December". طلبت شركة OpenAI إجراء تغييرات على chatbot للامتثال لإرشادات السلامة الخاصة بهم.

في عام 2022، طور DeepMind نظام Gato، وهو نظام "للأغراض العامة" قادر على أداء أكثر من 600 مهمة مختلفة.

في عام 2023، نشرت شركة Microsoft Research دراسة عن نسخة مبكرة من GPT-4 الخاص بـ OpenAI، مؤكدة أنها أظهرت ذكاءً عامًا أكثر من نماذج الذكاء الاصطناعي السابقة وأظهرت أداءً على مستوى الإنسان في مهام تشمل مجالات متعددة، مثل الرياضيات، والترميز، والقانون، وأثار هذا البحث جدلاً حول ما إذا كان يمكن اعتبار GPT-4 نسخة مبكرة وغير كاملة من الذكاء الاصطناعي العام، مع التركيز على الحاجة إلى مزيد من الاستكشاف والتقييم لهذه الأنظمة.

محاكاة الدماغ بالكامل للذكاء الاصطناعي

تتمثل إحدى الطرق الممكنة لتحقيق الذكاء الاصطناعي العام في محاكاة الدماغ بالكامل: يتم بناء نموذج الدماغ عن طريق مسح ورسم خرائط لدماغ بيولوجي بالتفصيل ونسخ حالته إلى نظام كمبيوتر أو جهاز حسابي آخر. يدير الكمبيوتر نموذج محاكاة دقيقًا بدرجة كافية للأصل بحيث يتصرف عمليا بنفس الطريقة التي يتصرف بها الدماغ الأصلي. تتم مناقشة محاكاة الدماغ بالكامل في علم الأعصاب الحسابي والمعلوماتية العصبية، في سياق محاكاة الدماغ لأغراض البحث الطبي، تمت مناقشته في أبحاث الذكاء الاصطناعي كنهج للذكاء الاصطناعي القوي. إن تقنيات التصوير العصبي التي يمكن أن توفر الفهم التفصيلي الضروري تتحسن بسرعة، ويتوقع المستقبلي راي كورزويل في كتاب التفرد قريب أن خريطة ذات جودة كافية ستصبح متاحة على نطاق زمني مماثل لقوة الحوسبة المطلوبة لمحاكاتها.

التقديرات المبكرة للذكاء الاصطناعي

تقديرات لمقدار قوة المعالجة اللازمة لمحاكاة دماغ بشري على مستويات مختلفة (من راي كورزويل وأندرس ساندبرج ونيك بوستروم)، إلى جانب أسرع كمبيوتر عملاق من TOP500 تم تحديده سنويًا. لاحظ المقياس اللوغاريتمي وخط الاتجاه الأسي، الذي يفترض أن القدرة الحسابية تتضاعف كل 1.1 سنة. يعتقد كورزويل أن تحميل العقل سيكون ممكنًا في المحاكاة العصبية في حين أن تقرير ساندبرج، بوستروم أقل يقينًا بشأن مكان ظهور الوعي لمحاكاة الدماغ منخفضة المستوى، ستكون هناك حاجة إلى جهاز كمبيوتر قوي للغاية. يمتلك دماغ الإنسان عددًا كبيرًا من نقاط الاشتباك العصبي ويحتوي كل من الخلايا العصبية الـ 1011 (مائة مليار) في المتوسط على 7000 وصلة متشابكة (مشابك) مع الخلايا العصبية الأخرى. يحتوي دماغ طفل يبلغ من العمر ثلاث سنوات على حوالي 1015 نقطة تشابك عصبي (1 كوادريليون). يتناقص هذا الرقم مع تقدم العمر، ويستقر عند البلوغ، وتختلف التقديرات بالنسبة لشخص بالغ، وتتراوح من 1014 إلى 5 × 1014 مشابكًا عصبية (100 إلى 500 تريليون). يقدر تقدير قوة معالجة الدماغ، استنادًا إلى نموذج التبديل البسيط لنشاط الخلايا العصبية، بحوالي 1014 (100 تريليون) تحديثًا متشابكًا في الثانية.

نموذج الخلايا العصبية الاصطناعية الذي افترضه كورزويل واستخدم في العديد من تطبيقات الشبكات العصبية الاصطناعية الحالية بسيط مقارنة بالخلايا العصبية البيولوجية. من المحتمل أن تقوم محاكاة الدماغ بالتقاط السلوك الخلوي المفصل للخلايا العصبية البيولوجية، والمفهوم حاليًا فقط في الخطوط العريضة. تتطلب النفقات العامة المقدمة من النمذجة الكاملة للتفاصيل البيولوجية والكيميائية والفيزيائية للسلوك العصبي (خاصة على المستوى الجزيئي) قوى حسابية عدة مرات من الحجم أكبر من تقدير كورزويل. بالإضافة إلى ذلك، لا تأخذ التقديرات في الحسبان الخلايا الدبقية، والتي من المعروف أنها تلعب دورًا في العمليات المعرفية.

البحث الحالي

تبحث بعض المشاريع البحثية في محاكاة الدماغ باستخدام نماذج عصبية أكثر تعقيدًا، يتم تنفيذها على بنيات الحوسبة التقليدية. نفذ مشروع نظام الذكاء الاصطناعي عمليات محاكاة غير حقيقية لـ "دماغ" (مع 1011 خلية عصبية) في عام 2005. استغرق الأمر 50 يومًا على مجموعة من 27 معالجًا لمحاكاة ثانية واحدة من نموذج. استخدم مشروع Blue Brain واحدًا من أسرع معماريات الحواسيب العملاقة، منصة Blue Gene من IBM، لإنشاء محاكاة في الوقت الفعلي لدماغ جرذ واحد يتكون من حوالي 10000 خلية عصبية و 108 نقاط تشابك في عام 2006. الهدف طويل المدى هو بناء محاكاة وظيفية مفصلة للعمليات الفسيولوجية في الدماغ البشري وتم اقتراح واجهات السيليكون العصبي كإستراتيجية تنفيذ بديلة قد تتوسع بشكل أفضل.

وبشكل آخر تناول هانز مورافيك الحجج المذكورة أعلاه "الأدمغة أكثر تعقيدًا"، "يجب تصميم الخلايا العصبية بمزيد من التفصيل" في بحثه عام 1997 "متى تتطابق أجهزة الكمبيوتر مع الدماغ البشري؟". قام بقياس قدرة البرامج الموجودة على محاكاة وظائف الأنسجة العصبية، وخاصة شبكية العين.

وفي إطار آخر تم استكشاف التعقيد الفعلي لنمذجة الخلايا العصبية البيولوجية في مشروع OpenWorm الذي يهدف إلى محاكاة كاملة لدودة تحتوي على 302 خلية عصبية فقط في شبكتها العصبية (من بين حوالي 1000 خلية في المجموع). تم توثيق الشبكة العصبية للحيوان جيدًا قبل بدء المشروع. ومع ذلك، على الرغم من أن المهمة بدت بسيطة في البداية، إلا أن النماذج القائمة على شبكة عصبية عامة لم تنجح. حاليًا، قد تكون قديمة اعتبارًا من أبريل 2023، تركز الجهود على المحاكاة الدقيقة للخلايا العصبية البيولوجية (جزئيًا على المستوى الجزيئي)، ولكن لا يمكن حتى الآن اعتبار النتيجة ناجحة تامًا.

إضافة إلى ذلك، فإن حجم الدماغ البشري ليس مقيدًا بشكل جيد في الوقت الحالي. أحد التقديرات يضع الدماغ البشري عند حوالي 100 مليار خلية عصبية و100 تريليون نقطة تشابك عصبية، تقدير آخر هو 86 مليار خلية عصبية منها 16.3 مليار في القشرة الدماغية و69 مليار في المخيخ. مشابك الخلايا الدبقية غير محددة الكمية حاليًا ولكن من المعروف أنها عديدة للغاية.

فلسفة الذكاء الاصطناعي

في عام 1980، صاغ الفيلسوف جون سيرل مصطلح "الذكاء الاصطناعي القوي" كجزء من حجته في الغرفة الصينية. أراد التمييز بين فرضيتين مختلفتين حول الذكاء الاصطناعي:

  1. فرضية قوية للذكاء الاصطناعي: يمكن لنظام الذكاء الاصطناعي أن "يفكر" - يمتلك "عقلًا" و "وعيًا".
  2. فرضية ضعيفة للذكاء الاصطناعي: يمكن لنظام الذكاء الاصطناعي (فقط) أن يتصرف كما يفكر ويمتلك عقلًا ووعيًا.

أول واحد أسماه "قوي" لأنه يعطي بيانًا أقوى: يفترض أن شيئًا خاصًا قد حدث للآلة يتجاوز تلك القدرات التي يمكننا اختبارها. سيكون سلوك الآلة "الضعيفة للذكاء الاصطناعي" مطابقًا تمامًا لآلة "الذكاء الاصطناعي القوية"، لكن هذا الأخير سيكون له أيضًا خبرة واعية ذاتية. هذا الاستخدام شائع أيضًا في أبحاث الذكاء الاصطناعي والكتب المدرسية الأكاديمية.

يهتم الذكاء الاصطناعي السائد بكيفية تصرف البرنامج وفقًا لراسل ونورفيج، "طالما أن البرنامج يعمل، فهم لا يهتمون إذا كنت تسميه حقيقيًا أو محاكاة." إذا كان البرنامج يمكن أن يتصرف كما لو كان لديه عقل، فلا داعي لذلك معرفة ما إذا كان لديه عقل بالفعل - في الواقع، لن تكون هناك طريقة لمعرفة ذلك. بالنسبة لأبحاث الذكاء الاصطناعي، فإن "فرضية الذكاء الاصطناعي الضعيفة" لسيرل تعادل عبارة "الذكاء الاصطناعي العام ممكن". وبالتالي، وفقًا لرسل ونورفيج، "يعتبر معظم باحثي الذكاء الاصطناعي فرضية الذكاء الاصطناعي الضعيفة أمرًا مفروغًا منه، ولا يهتمون بفرضية الذكاء الاصطناعي القوية." شيئان مختلفان للغاية.

على عكس سيرل والذكاء الاصطناعي السائد، يستخدم بعض المستقبليين مثل راي كورزويل مصطلح "الذكاء الاصطناعي القوي" ليعني "الذكاء العام الاصطناعي على المستوى البشري". هذا ليس هو نفسه الذكاء الاصطناعي القوي لـ Searle، إلا إذا افترضت أن الوعي ضروري للذكاء الاصطناعي العام على مستوى الإنسان. لا يعتقد الفلاسفة الأكاديميون مثل سيرل أن هذا هو الحال، وبالنسبة لمعظم باحثي الذكاء الاصطناعي فإن السؤال خارج النطاق.

وعي الذكاء الاصطناعي

جوانب أخرى من العقل البشري إلى جانب الذكاء لها صلة بمفهوم الذكاء الاصطناعي القوي، وتلعب هذه الجوانب دورًا رئيسيًا في الخيال العلمي وأخلاقيات الذكاء الاصطناعي:

الوعي: أن يكون لديك خبرة وفكر ذاتيين.

الوعي الذاتي: أن يكون المرء مدركًا لنفسه كفرد منفصل، لا سيما أن يكون على دراية بأفكاره.

الإحساس: القدرة على "الشعور" بالتصورات أو العواطف بشكل شخصي.

العقل: القدرة على الحكمة.

هذه السمات لها بعد أخلاقي، لأن آلة بهذا الشكل من الذكاء الاصطناعي القوي قد يكون لها حقوق مماثلة لحقوق الحيوانات غير البشرية. تم إجراء عمل تمهيدي على دمج العوامل الأخلاقية الكاملة مع الأطر القانونية والاجتماعية القائمة، مع التركيز على الوضع القانوني للذكاء الاصطناعي "القوي" وحقوقه. يرى بيل جوي، من بين آخرين، أن آلة بهذه السمات قد تشكل تهديدًا لحياة الإنسان أو كرامته.

يبقى أن نوضح ما إذا كانت أي من هذه السمات ضرورية للذكاء الاصطناعي القوي. دور الوعي غير واضح، ولا يوجد اختبار متفق عليه لوجوده. إذا تم بناء آلة بجهاز يحاكي الارتباطات العصبية للوعي، فهل سيكون لديها وعي ذاتي تلقائيًا؟ من الممكن أن تنشأ بعض هذه السمات بشكل طبيعي من آلة ذكية تمامًا. من الممكن أيضًا أن ينسب الناس هذه الخصائص إلى الآلات بمجرد أن يبدأوا في التصرف بطريقة ذكية بشكل واضح.

على الرغم من أن دور الوعي في الذكاء الاصطناعي / الذكاء الاصطناعي العام القوي أمر قابل للنقاش، فإن العديد من باحثي الذكاء الاصطناعي العام يعتبرون البحث الذي يبحث في إمكانيات تطبيق الوعي أمرًا حيويًا. في محاولة مبكرة، جادل إيغور ألكسندربأن مبادئ إنشاء آلة واعية موجودة بالفعل ولكن الأمر سيستغرق أربعين عامًا لتدريب مثل هذه الآلة على فهم اللغة.

تحديات البحث في مجال الذكاء الاصطناعي

لقد مرَّ التقدم في الذكاء الاصطناعي بفترات من التقدم السريع تفصل بينها فترات بدا أن التقدم فيها قد توقف. إنهاء كل فجوة من التطورات الأساسية في الأجهزة أو البرامج أو كليهما لخلق مساحة لمزيد من التقدم على سبيل المثال، لم تكن أجهزة الكمبيوتر المتوفرة في القرن العشرين كافية لتنفيذ التعلم العميق، الأمر الذي يتطلب عددًا كبيرًا من وحدات المعالجة المركزية ويتأرجح المجال أيضًا بين مقاربات المشكلة. في بعض الأحيان، تركزت الجهود على التراكم الواضح للحقائق والمنطق، كما هو الحال في الأنظمة الخبيرة. في أوقات أخرى، كان من المتوقع أن تبني الأنظمة الخاصة بها عبر التعلم الآلي، كما هو الحال في الشبكات العصبية الاصطناعية.

التحدي الآخر هو عدم الوضوح في تحديد ما يستلزم الذكاء. هل يتطلب الوعي؟ هل يجب أن يظهر القدرة على تحديد الأهداف ومتابعتها؟ هل هي مجرد مسألة مقياس بحيث إذا زادت أحجام النموذج بشكل كافٍ، سيظهر الذكاء؟ هل المرافق مثل التخطيط والاستدلال والفهم السببي مطلوبة؟ هل يتطلب الذكاء صراحة استنساخ الدماغ وملكاته المحددة؟ هل يتطلب الأمر عواطف؟

الخلافات والمخاطر

اعتبارًا من عام 2022، لا يزال الذكاء الاصطناعي العام مضاربًا. لم يتم إثبات مثل هذا النظام حتى الآن. تختلف الآراء حول ما إذا كان الذكاء الاصطناعي العام سيصل ومتى. تكهن رائد الذكاء الاصطناعي هربرت أ. سايمون في عام 1965 بأن "الآلات ستكون قادرة، في غضون عشرين عامًا، على القيام بأي عمل يمكن للرجل القيام به". فشل هذا التوقع في أن يتحقق. يعتقد بول ألين، الشريك المؤسس لشركة Microsoft، أن مثل هذا الذكاء غير مرجح في القرن الحادي والعشرين لأنه سيتطلب "اختراقات غير متوقعة وغير متوقعة في الأساس" و "فهمًا علميًا عميقًا للإدراك". ادعى عالم الروبوتات آلان وينفيلد في صحيفة الجارديان أن الفجوة بين الحوسبة الحديثة والذكاء الاصطناعي على مستوى الإنسان واسعة مثل الفجوة بين رحلة الفضاء الحالية ورحلات الفضاء العملية الأسرع من الضوء.

يعتقد معظم باحثي الذكاء الاصطناعي أنه يمكن تحقيق ذكاء اصطناعي قوي في المستقبل، لكن بعض المفكرين، مثل Hubert Dreyfus و Roger Penrose، ينفون إمكانية تحقيق ذكاء اصطناعي قوي. جون مكارثي هو من بين أولئك الذين يعتقدون أنه سيتم إنجاز الذكاء الاصطناعي على المستوى البشري، ولكن المستوى الحالي من التقدم لا يمكن التنبؤ به بدقة، وعلى نطاق آخر وجد تقرير أعده ستيوارت أرمسترونج وكاج سوتالا من معهد أبحاث ذكاء الآلة أنه "خلال إطار زمني 60 عامًا، هناك تحيز قوي نحو توقع وصول الذكاء الاصطناعي على المستوى البشري ما بين 15 و 25 عامًا من وقت التنبؤ.

هل هنالك تهديد محتمل للوجود البشري من قبل الذكاء الاصطناعي؟

الأطروحة القائلة إن الذكاء الاصطناعي يشكل خطرًا وجوديًا على البشر، وأن هذا الخطر يحتاج إلى اهتمام أكبر بكثير مما يحصل عليه حاليًا، وقد أيدته العديد من الشخصيات العامة بما في ذلك إيلون ماسك وبيل جيتس، وقبلهم استيفن هوكينج، وباحثو منظمة العفو الدولية مثل ستيوارت ج. راسل، ورومان يامبولسكي، وأليكسي تورشين، يدعمون أيضًا الأطروحة الأساسية لتهديد محتمل للبشرية؛ إذ صرح جيتس بأنه لا "يفهم سبب عدم قلق بعض الناس".

وجدت مراجعة منهجية في عام 2021 للمخاطر المرتبطة بالذكاء الاصطناعي العام، مع ملاحظة ندرة البيانات، التهديدات المحتملة التالية: "إزالة الذكاء الاصطناعي العام نفسه من سيطرة المُلّاك/ المديرين البشريين، وإعطاء أو تطوير أهداف غير آمنة، وتطوير الذكاء الاصطناعي العام، والذكاء الاصطناعي العام. مع سوء الأخلاق والأخلاق والقيم؛ إدارة غير كافية للذكاء الاصطناعي العام، والمخاطر الوجودية ".

يدعو العديد من العلماء المهتمين بالمخاطر الوجودية إلى إجراء أبحاث (ربما تكون ضخمة) في حل "مشكلة التحكم" الصعبة للإجابة على السؤال: ما هي أنواع الضمانات أو الخوارزميات أو البنى التي يمكن للمبرمجين تنفيذها لتعظيم احتمالية أن يكون الذكاء الاصطناعي الذي يتحسن بشكل متكرر الاستمرار في التصرف بطريقة ودية، وليست مدمرة، بعد أن تصل إلى الذكاء الخارق؟ من الذكاء الاصطناعي العام من قبل أكثر من دولة قومية، مما أدى إلى حرب تدعم الذكاء الاصطناعي العام، وفي حالة انحراف الذكاء الاصطناعي، حرب موجهة من قبل الذكاء الاصطناعي العام، يحتمل أن تكون ضد البشرية جمعاء.

الأطروحة القائلة إن الذكاء الاصطناعي يمكن أن يشكل خطرًا وجوديًا لها أيضًا انتقاص.. جادل جارون لانيير في عام 2014 بأن فكرة أن الآلات الحالية كانت ذكية بأي شكل من الأشكال "وهم" و"خدعة هائلة" من قبل الأثرياء.

ويجادل الكثيرون بأن الذكاء الاصطناعي العام غير محتمل على المدى القصير. ويجادل عالم الكمبيوتر جوردون بيل بأن الجنس البشري سيدمِر نفسه قبل أن يصل إلى التفرد التكنولوجي. صرح جوردون مور، المؤيد الأصلي لقانون مور، قائلاً: "أنا متشكك. لا أعتقد أن التفرد التكنولوجي من المحتمل أن يحدث، على الأقل لفترة طويلة. ولا أعرف لماذا أشعر بذلك الطريق.

** المقال يستند إلى بحوث أجنبية علمية في مجال الذكاء الاصطناعي

تعليق عبر الفيس بوك