معلومات طبيةمنوعات

هل يتفوق الذكاء الاصطناعى علي البشر؟

هل يتفوق الذكاء الاصطناعي علي البشر؟

وفقًا للأسطورة  أنشأ الفيلسوف في العصور الوسطى والرهبان الفرنسيسكاني روجر بيكون  الذكاء الاصطناعي

وضعه في رأس برونزي يشبه الإنسان. بيكون ، هكذا تقول القصة ، أراد استخدام الرؤى المستقاة من هذا “الرأس الوقح”

للتأكد من أنه لا يمكن غزو بريطانيا أبدًا.

كان هناك تحد طويل الأمد للمهندسين وعلماء الكمبيوتر يتمثل في بناء نسخة طبق الأصل من السيليكون تستند إلى الدماغ

يمكن أن تتطابق مع الذكاء البشري ثم تتجاوزه.

يدفعنا هذا الطموح إلى تخيل ما قد نفعله إذا نجحنا في إنشاء الجيل التالي من أنظمة الكمبيوتر التي يمكنها التفكير والحلم والعقل لنا ومعنا.

الذكاء الاصطناعي يبدو أنه موجود في كل مكان. تقوم المجلات والمقالات الصحفية بترويجها إلى ما لا نهاية ، مما يثير التوقعات والخوف على قدم المساواة تقريبًا.

أشكال من الذكاء الاصطناعي

أصبحت أشكال معينة من الذكاء الاصطناعي في كل مكان.

على سبيل المثال ، تنفذ الخوارزميات كميات هائلة من التداول في أسواقنا المالية، وبدأت السيارات ذاتية القيادة في التنقل

في شوارع المدينة وترجمت هواتفنا الذكية من لغة إلى أخرى.

هذه الأنظمة تكون أحيانًا أسرع وأكثر إدراكًا من البشر.

لكن هذا صحيح حتى الآن بالنسبة للمهام المحددة التي تم تصميم الأنظمة من أجلها.

هذا شيء يرغب بعض مطوري الذكاء الاصطناعي في تغييره.

الذكاء العام المصطنع

يريد بعض رواد الذكاء الاصطناعى اليوم الانتقال من عالم اليوم المتمثل في الذكاء الاصطناعى “الضعيف” أو “الضيق” ، لخلق

الذكاء الاصطناعى “القوي” أو “الكامل”

أو ما يسمى غالبًا الذكاء العام المصطنع (AGI). في بعض النواحي، تجعل آلات الحوسبة القوية اليوم أدمغتنا تبدو سيئة.

يمكنهم تخزين كميات هائلة من البيانات ومعالجتها بسرعة استثنائية والتواصل على الفور مع أجهزة الكمبيوتر الأخرى في جميع أنحاء الكوكب.

إذا أمكن تزويد هذه الأجهزة بخوارزميات AGI التي تعمل بطرق أكثر مرونة ، فستكون الفرصة هائلة.

يقول مؤيدوها إن AGI يمكنها العمل من أجلنا بجد وعلى مدار الساعة والاعتماد على جميع البيانات المتاحة ، يمكن أن تقترح

حلولًا للعديد من المشكلات التي ثبت أنها غير قابلة للحل حتى الآن.

ربما يمكن أن تساعد في توفير رعاية صحية وقائية فعالة، وتجنب تعطل البورصة أو منع الصراع الجيوسياسي. DeepMind من Google ، وهي شركة تركز على تطوير AGI ، لديها طموح غير حاسم “لحل الذكاء.”

“إذا نجحنا”، كما جاء في بيان مهمتهم ، “نعتقد أن هذا سيكون أحد أهم العناصر العلمية المفيدة على نطاق واسع التقدم المحرز من أي وقت مضى. ”

للذكاء الاصطناعى فاق الخيال

منذ الأيام الأولى للذكاء الاصطناعى فاق الخيال ما هو ممكن أو المحتمل.

في عام 1965 ، توقع عالم رياضيات مبدع يدعى ايرفينغ جود ، الذي كان زميلًا لألان تورنج في فريق كسر الشفرة في الحرب العالمية الثانية في بلتشلي بارك ،

إنشاء “آلة ذكية جدًا … يمكن أن تتجاوز جميع الأنشطة الفكرية وتنبأ بأن مثل هذه الآلة سوف تكون قادرة على تحويل فكرها الواسع إلى تحسين نفسها – كل قرص سيزيد من قدرته على تعزيز قدراته الخاصة ،

مما يؤدي إلى حلقة ردود فعل إيجابية سريعة يتسارع. كتب غود: “سيكون هناك ، بلا شك ،” انفجار استخباراتي “، وستترك ذكاء الإنسان بعيدًا عن الأنظار”.

ومضى Good إلى أن يشير إلى أن “أول آلة فائقة الذكاء” يمكن أن تكون “آخر اختراع يحتاجه الإنسان على الإطلاق.”

وقد أدى ذلك إلى فكرة ما يسمى بـ “التفرد التكنولوجي” الذي اقترحه Ray Kurzweil ، الذي يجادل بأن سيكون وصول أجهزة

الكمبيوتر فائقة الذكاء بمثابة نقطة تحول حاسمة في تاريخنا

وبعدها سيكون هناك ثورة في البراعة التكنولوجية والفكرية التي ستغير كل وجه من الوجوه.

أضاف Good مؤهلاً مهماً إلى تنبؤه “الاختراع الأخير”: فكرة أننا سنكون قادرين على جني فوائده “بشرط أن تكون الماكينة

سهلة الانقياد بما يكفي لإخبارنا بكيفية إبقائها تحت السيطرة”.

المخاوف من ظهور آلات ذكية

تعززت المخاوف من ظهور آلات ذكية خبيثة قوية من صنع الإنسان من خلال العديد من الأعمال الخيالية

مثل سلسلة أفلام ماري شيللي فرانكشتاين وسلسلة أفلام تيرميناتور ،

ولكن إذا أثبتت منظمة العفو الدولية في نهاية المطاف أنها سقوطنا، فمن غير المرجح أن تكون على أيدي أشكال على

شكل الإنسان مثل هذه ، مع دوافع بشرية معترف بها مثل العدوان أو الانتقام.

أخطر المخاطر من AGI

بدلاً من ذلك ، أتفق مع الفيلسوف في جامعة أكسفورد نيك بوستروم ، الذي يعتقد أن أخطر المخاطر من AGI لا تأتي من

اتخاذ قرار ضد البشرية ، بل من السعي الدؤوب لتحقيق أهداف محددة على حساب كل شيء آخر.

يلخص ستيوارت راسل الباحث في شركة بيركلي لمنظمة العفو الدولية ، ما يراه جوهر هذه المشكلة: “إذا قلت ، على

سبيل المثال ،” أريد أن أحول كل شيء إلى الذهب “، فهذا بالضبط ما ستحصل عليه وبعد ذلك ستندم على ذلك.

“إذا أصبحت أجهزة الكمبيوتر ذكية للغاية ، فلا يوجد سبب لتوقعها أن تتقاسم أي قدرة يتعرف عليها الناس كعدالة أو تعاطف.

الوعد والخطر من AGI صحيح هائلة.

ولكن جميع المناقشات اليوم المتحمسة حول هذه الاحتمالات تفترض مسبقاً أننا سنكون قادرين على بناء هذه الأنظمة.

وبعد التحدث إلى العديد من الباحثين الأوائل في مجال الذكاء الاصطناعى في العالم ، هناك سبب وجيه للشك في أننا

سنرى AGI في أي وقت قريب ، إن حدث ذلك.

هل يتفوق الذكاء الاصطناعى علي البشر؟

ووفقًا لرسل ، “نحن نخرج بعدة خوارزميات بعيدًا عن امتلاك أي شيء تعرفه على أنه ذكاء للأغراض العامة.”

تونغ تشانغ ، الذي كان ، حتى وقت سابق من هذا العام ، رئيس أبحاث الذكاء الاصطناعى في شركة التكنولوجيا الصينية تينسنت

يوافق على ما يلي: ” إذا كنت تريد الجنرال AI ، فمن المؤكد أن هناك الكثير من العقبات التي تحتاج إلى التغلب عليها.

“” أنا فقط لا أرى أي دوافع عملية في المستقبل القريب لذكاء فائق مستعرض عام “، كما تقول سينثيا بريزيل ، MIT.

يشك مارك جيمس أوف بيوند ليميتس أيضًا في أن أي شخص يسير على الطريق الصحيح لتطوير AGI صحيحًا ،

قائلاً إنه “لكي يتقدم مجال الذكاء الاصطناعي حقًا إلى حد امتلاك آلة تفكير تشبه الإنسان حقًا ،

نحتاج إلى إعادة التفكير في المشكلة من المربع واحد “.

أعتقد أن جيمس على حق – بعد كل شيء ، كيف يمكننا هندسة شيء لا يمكننا حتى تعريفه؟ لم نتمكن مطلقًا من تحديد

ماهية الذكاء البشري الطبيعي ، لذلك ليس من الواضح ما الذي يحاول المهندسون تقليده في الآلات.

بدلاً من أن يكون الذكاء معلمة جسدية واحدة ، هناك العديد من أنواع الذكاء ، بما في ذلك الذكاء العاطفي والموسيقي والرياضي.

ويوافقني زوبان الغراماني ، أستاذ كامبريدج وكبير العلماء في جامعة أوبر ، على ذلك:

“لا أعتقد في الواقع أن هناك شيئًا مثل الذكاء العام”

وإذا لم يكن هناك شيء مثل الذكاء العام ، فلا يوجد أمل في بناء واحد ، سواء من الأجزاء الاصطناعية أو البيولوجية.

يذهب الغراماني إلى أبعد من ذلك ، بحجة أن “نظرتنا إلى الذكاء هي” ما قبل كوبرنيكان “. كما أن الأرض ليست في قلب

نظامنا الشمسي ، فإن العقل البشري لا يمثل قمة الذكاء.

محاكاة ذكاء العقل البشري

ما يعنيه كل هذا هو ، حتى لو استطعنا محاكاة ذكاء العقل البشري ، فقد لا يكون هذا بالضرورة أفضل طريق قوي نحو أشكال قوية من AGI.

كما أشار الباحث البارز في الذكاء الاصطناعى مايكل جوردان ، من جامعة كاليفورنيا ، بيركلي ، لم تتطور الهندسة المدنية

بمحاولة إنشاء صانعي بناء أو نجارين ، والهندسة الكيميائية لم تنبع من إنشاء كيميائي اصطناعي ،

فلماذا يجب أن أي شخص يعتقد أن معظم التقدم في هندسة المعلومات يجب أن يأتي من محاولة بناء دماغ اصطناعي؟

بدلاً من ذلك ، أعتقد أن على المهندسين أن يوجهوا تصوراتهم نحو بناء أنظمة الكمبيوتر التي تفكر بطرق لا نستطيع: أن تتصارع مع عدم اليقين

وتحسب المخاطر من خلال النظر في الآلاف أو الملايين من المتغيرات المختلفة ودمج كميات هائلة من البيانات سيئة التنظيم من العديد من المصادر المختلفة.

لا شيء من هذا هو الاستغناء عن قوة خوارزميات الذكاء الاصطناعي القابلة للتكيف بشكل متزايد

أو لتجاهل المخاطر التيقد تشكلها ذات يوم من خلال الآثار الجانبية غير المتوقعة أو التطبيقات الخبيثة.

ولكن إذا كان لدينا سبب للاعتقاد بأن وجود جهاز ذي ذكاء عام يشبه الإنسان أمر مستحيل ،

فإن الكثير من المخاوف بشأن

الذكاء الاصطناعي تتبخر.

ليست هناك حاجة لكتابة أي كود أخلاقي محدد أو نظام قيم في أعمال أنظمة الذكاء الاصطناعي.

بدلاً من ذلك ، يجب أن يكون هدفنا هو جعلها قابلة للرقابة واستجابة عالية لاحتياجاتنا.

يكرس الكثير من الباحثين والمفكرين من الدرجة الأولى قدراً كبيراً من الوقت والطاقة لاستباق المشكلات المرتبطة بالذكاء الاصطناعى قبل ظهورها.

مفتاح جعل أنظمة الذكاء الاصطناعي أكثر أمانًا

يعتقد راسل أن مفتاح جعل أنظمة الذكاء الاصطناعي أكثر أمانًا وأكثر قوة هو جعل أهدافهم غير واضحة بطبيعتها أو ،

في مصطلحات علوم الكمبيوتر ، إدخال عدم اليقين في أهدافهم.

كما يقول ، “أعتقد أنه يتعين علينا فعلاً إعادة بناء الذكاء الاصطناعي من أساسه إلى أعلى.

الأساس الذي تم إنشاؤه هو الأساس المنطقي للعامل [يشبه الإنسان] في تحقيق الأهداف.

هذه مجرد حالة خاصة. “يقوم راسل وفريقه بتطوير خوارزميات ستسعى بنشاط إلى التعلم من الناس

حول ما يريدون تحقيقه والقيم المهمة لهم.

يصف كيف يمكن لهذا النظام أن يوفر بعض الحماية ، “لأنه يمكنك إظهار أن الجهاز غير المؤكد حول هدفه مستعد ،

على سبيل المثال ، لإيقاف تشغيله.”

مثل هذا العمل مهم ، خاصة وأن راسل ومعاونيه لا يقومون ببساطة بالإبلاغ عن المخاطر غير المحددة ،

ولكنهم يقترحون أيضًا حلولاً وقائية ملموسة.

هذا ما قصدته أستاذة ستانفورد AI والرئيس السابق لـ Google Cloud Fei-Fei Li عندما قالت لي:

“ليس من الصحي أن أعظ مجرد نوع من عسر الولادة [حول الذكاء الاصطناعي]. إنها أكثر مسؤولية بكثير عن نشر رسالة مدروسة. ”

يمكنك الاستفادة من هذا المقال ايضا:

تعلم قراءة الناس ككتاب مفتوح

 

 

الوسوم

اترك رد

زر الذهاب إلى الأعلى
إغلاق
إغلاق
التخطي إلى شريط الأدوات