لماذا الذكاء الاصطناعي المتعمد لن يدمر البشر في أي وقت قريب

مؤلف: Roger Morrison
تاريخ الخلق: 1 شهر تسعة 2021
تاريخ التحديث: 1 تموز 2024
Anonim
Rise of the Terminators - Military Artificial Intelligence (AI) | Weapons that think for Themselves
فيديو: Rise of the Terminators - Military Artificial Intelligence (AI) | Weapons that think for Themselves

المحتوى


المصدر: Willyambradberry / Dreamstime.com

يبعد:

على الرغم من بعض الخيال العلمي الكبير الذي ألهمته ، يشرح الخبراء أن الذكاء الاصطناعي لن يهددنا بشكل مباشر من حيث التفوق العقلي.

إذا كنت تهتم بما يتحدث عنه الناس في مجال التكنولوجيا ، فربما تكون قد سمعت نسخة من المخاوف التي يثيرها إيلون موسك وبيل جيتس وآخرون حول تقنيات الذكاء الاصطناعي الفائق الذكاء - على الرغم من أن التقارير الأخيرة تظهر أن جيتس قد برد قليلاً على كل هذه الأشياء كاساندرا ، لا يزال هناك قلق وفيرة والمنطق وراء ذلك.

أسئلة كثيرة: هل تصبح الروبوتات أكثر ذكاءً من البشر؟ هل ستتولى منظمة العفو الدولية وظائفنا وحياتنا؟ هل ستبدأ التكنولوجيا في التحكم في البشر ، وهل تؤدي مشاكل إساءة استخدام الذكاء الاصطناعي إلى العنف والدمار؟

بالنسبة للعديد من الخبراء ، تكون الإجابة "لا" مدوية استنادًا إلى الطرق الفعلية التي نطور بها تقنيات اليوم. يتفق معظمهم على أننا بحاجة إلى أطر أخلاقية يمكن تفسيرها لتوجيه تقنيات الذكاء الاصطناعي والـ ML - لكنهم لا يوافقون على أن أذرع الروبوت الآلية هي نتيجة معينة.


دعونا نلقي نظرة على بعض الجدل الدائر حول الذكاء الخارق ونرى لماذا يثق كثير من التكنولوجيين في أن البشر سيظلون يمسكون بزمام الأمور خلال بضع مئات من السنين.

البشر يأخذون زمام المبادرة

عندما تنظر إلى التقارير حول اهتمامات الذكاء الاصطناعى ، فإن الاسم الوحيد الذي يطرح نفسه هو Grady Booch. قام Booch بدور رائد في لغة النمذجة الموحدة (UML) وعمل على التقنيات الرئيسية لشركة IBM في وقت مبكر من الألفية.

يوضح حديث TED الذي أجراه بوخ بعضًا من تفاؤله بشأن أنواع الذكاء الاصطناعي التي كنا نظن أنها خيال علمي.

أولاً ، يجادل قائلاً ، إن التدريب البشري سيحول أخلاقياته وقواعده إلى أداء أنظمة الذكاء الاصطناعي.

يقول بوخ: "إذا كنت أرغب في إنشاء مساعد قانوني ذكي بشكل مصطنع ، فسأعلّمه مجموعة من القوانين ، لكنني في الوقت نفسه أمزج معه الإحساس بالرحمة والعدالة التي هي جزء من هذا القانون". "من الناحية العلمية ، هذا هو ما نسميه الحقيقة الأساسية ، وهنا تكمن النقطة المهمة: في إنتاج هذه الآلات ، لذلك نحن نعلمهم شعورًا بقيمنا. ولهذه الغاية ، أثق في الذكاء المصطنع نفسه ، إن لم يكن أكثر من ذلك ، كإنسان مدرب بشكل جيد. "


No Bugs، No Stress - دليلك خطوة بخطوة لإنشاء برامج لتغيير الحياة دون تدمير حياتك

لا يمكنك تحسين مهارات البرمجة لديك عندما لا يهتم أحد بجودة البرنامج.

في وقت لاحق من الحديث ، طرح Booch حجة أخرى مختلفة تمامًا عن سبب عدم الحاجة إلى الخوف من الاستحواذ على التقنيات.

يقول بوخ: "(تهديد وجودي للبشرية من التكنولوجيا) يجب أن يكون بذكاء فائق". "يجب أن يكون لها سيطرة على كل عالمنا. هذه هي مادة Skynet من فيلم "The Terminator" ، حيث كان لدينا ذكاء فائق قاد الإرادة البشرية ، والذي وجه كل جهاز كان في كل ركن من أركان العالم. من الناحية العملية ، لن يحدث ذلك. نحن لا نبني الذكاء الاصطناعي الذي يتحكم في الطقس ، والذي يوجه المد والجزر ، والذي يقودنا إلى البشر المتقلبة والفوضوية. وعلاوة على ذلك ، إذا كان هناك مثل هذا الذكاء المصطنع ، فسيتعين عليه التنافس مع الاقتصاديات البشرية ، وبالتالي التنافس على الموارد معنا ... في النهاية (لا تخبر سيري بذلك) يمكننا دائمًا فصلها ".

أدمغتنا ، أجسادنا

حجة رئيسية أخرى لسيادة الإدراك البشري للتكنولوجيا تتعلق باستكشاف الدماغ البشري.

إذا ذهبت إلى موقع يوتيوب واستمعت إلى المهندس الشهير مارفين مينسكي ، وهو رائد في مجال ML في وقت مبكر ومثال على Ray Kurzweil وغيره من معلمي الذكاء الاصطناعى اليوم ، يمكنك سماعه يتحدث عن الدماغ البشري. تشدد مينسكي على أن الذكاء البشري الحقيقي ليس حاسوبًا عملاقًا واحدًا قويًا ، لكن مئات أجهزة الكمبيوتر المختلفة مترابطة معًا بطرق معقدة. ويوضح أن الذكاء الاصطناعي يمكن أن يكرر بعض هذه الأجهزة ، لكنه ليس قريبًا من تكرارها جميعًا.

بالنسبة لكثير من خبراء التكنولوجيا ، لن تكون الذكاء الاصطناعي قادرة أبدًا على محاكاة تعقيد الدماغ البشري ، وبالتالي ستكون دائمًا أقل قوة بشكل فطري.

كتب لوك كلاوستر ، دكتوراه: "عادةً لا يتم تصميم الذكاء الاصطناعي للبقاء على قيد الحياة ، ولكن بدلاً من ذلك لحل مشاكل محددة للغاية ومحوره الإنسان مثل لعب الشطرنج". في أواخر العام الماضي. "على هذا النحو ، لا يمكنهم حتى التكيف مع التغييرات الطفيفة في بيئتهم دون إعادة برمجةها ، في حين أن البشر يديرون الدقة أو تغيير القواعد بسهولة على أنفسهم".

الذكاء الاصطناعي والحدس

هناك أيضًا حجة طبيعية تعتمد على ما يمكن أن تسميه "مشكلة حراسة العبور" - إنها توضح حدود ما يمكن أن يفعله الذكاء الاصطناعي. الذكاء الاصطناعى و ML رائعين في استنباط رؤى من مجموعة متنوعة من البيانات - لكنها ليست جيدة في الحدس ، وهو شيء معروف للبشر. بمعنى آخر ، إذا استأجرت جهاز كمبيوتر كحارس عبور ، فقد تكون لديك بعض الوظائف - لكن من المحتمل أن تكون لديك بعض الثغرات الخطيرة جدًا - التي لن تثق في أطفالك بها! (لمعرفة المزيد عن إمكانات الذكاء الاصطناعي للفكر الشبيه بالإنسان ، انظر هل يمكن تنفيذ الإبداع في الذكاء الاصطناعي؟)

على هذا النحو ، لا يمكن لبرامج الكمبيوتر أن تفهم المراوغات والخصوصيات البشرية الخاصة بنا بالطرق التي نتواصل بها والطرق التي نعيش بها - بحيث يكون ذلك أحد القيود الرئيسية الأخرى.

لمزيد من المعلومات حول السبب وراء المبالغة في المخاوف المتعلقة بالذكاء الفائق ، فإن مقالة "سلكي" في العام الماضي لكيفن كيلي تتخطى بعض الافتراضات التي قد تحتاج إلى التمسك الحقيقي بتولي منظمة العفو الدولية أي طريقة عملية بالفعل. وتشمل هذه ما يلي:

  • تلك الذكاء الاصطناعي تبالغ بالفعل في الإدراك البشري
  • يمكن توسيع تلك الذكاء بلا حدود
  • يمكن أن يحل الذكاء الفائق معظم المشكلات التي يواجهها البشر

من خلال قراءة المقال ، ترى كل هذه الافتراضات تنفجر وتعالج لتظهر ، مرة أخرى ، لماذا يكون الإدراك البشري مميزًا للغاية.

ليست هذه التكنولوجيا لن تصبح قوية - بل ستصبح كذلك. إنها مسألة تتعلق بجميع الأبعاد المختلفة التي يجب إتقانها من أجل جعل الذكاء الاصطناعي أكثر قوة من البشر. تطور الإنسان على مدى ملايين وملايين السنين - الذكاء الاصطناعي كان موجودًا منذ حوالي 20 عامًا ، وعلى الرغم من أنه حقق تقدماً هائلاً ، إلا أن البشر لا يزالون يتمتعون بالسلطة العليا ، وربما إلى الأبد.

إذا قرأت بعض هذه الروابط مرة أخرى ونظرت إلى ما يقوله الناس ، فما ينبغي لنا أن نشغل به هو أنفسنا. هناك إمكانية وفيرة للإنسان لإساءة استخدام التكنولوجيا - في الواقع ، قد يقول الكثيرون إننا بالفعل أساء استخدام الكثير من التقنيات التي لدينا. لذلك قد يكون هذا حقًا مكانًا أفضل لوضع قلق الفرد وعمله عندما يتعلق الأمر بإنشاء الذكاء الاصطناعي الأخلاقي.