11 اقتباسات عن منظمة العفو الدولية التي سوف تجعلك تفكر

مؤلف: Laura McKinney
تاريخ الخلق: 3 أبريل 2021
تاريخ التحديث: 26 يونيو 2024
Anonim
Odin Makes: Scorpion mask from Mortal Kombat 11
فيديو: Odin Makes: Scorpion mask from Mortal Kombat 11

المحتوى


المصدر: لين شاو هوا / Dreamstime.com

يبعد:

تقدم الذكاء الاصطناعي أمر لا مفر منه ، وما يترجم إلى الإنسانية ليس واضحًا تمامًا. يعتقد البعض أننا يمكن أن نتطلع إلى مستقبل عظيم ، في حين يعتقد البعض الآخر أنه يعني أننا على الطريق إلى أن يحل محله أسيادنا الروبوتية. المنظور الثالث هو الذي يدرك المخاطر ولكنه يعتبرها قابلة للإدارة.

نسمع الكثير عن الذكاء الاصطناعى وإمكاناته التحويلية. لكن ما يعنيه ذلك بالنسبة لمستقبل البشرية ليس واضحًا تمامًا. يعتقد بعض المستقبليين أن الحياة ستتحسن ، بينما يعتقد آخرون أنها تتعرض لتهديد خطير. هناك أيضًا مجموعة من المواقف في الوسط. إليك مجموعة من 11 خبيرًا.

1. "إلى حد بعيد ، فإن أكبر خطر للذكاء الاصطناعي هو أن يستنتج الناس في وقت مبكر للغاية أنهم يفهمونه". - اليعازر Yudkowsky

هذه هي الجملة الأولى في تقرير Yudkowsy لعام 2002 بعنوان "الذكاء الاصطناعي كعامل إيجابي وسالب في المخاطر العالمية" لمعهد بحوث الذكاء الآلي (MIRI). على الرغم من أن مصطلح الذكاء الاصطناعى لم يطرأ عليه الكثير تقريبًا كما هو الآن ، لا تزال هناك مشكلة عدم وجود فهم لفهم قدرات التكنولوجيا وحدودها. في الواقع ، في العامين الماضيين ، كان هناك المزيد من الضغط لجعل الذكاء الاصطناعى ليس فقط مفهومًا ولكنه قابل للتفسير.


2. "الأمر الحيوي هو جعل أي شيء يتعلق بالذكاء الاصطناعى قابلاً للتفسير ، ومنصفًا ، وآمنًا وذو نسب ، وهذا يعني أن أي شخص يمكنه أن يرى بكل بساطة كيف يطور أي تطبيق من الذكاء الاصطناعي ولماذا". - جيني روميتي

أدلى الرئيس التنفيذي لشركة IBM بهذا التصريح خلال خطابها الرئيسي في مؤتمر الإحصائيين الأوروبيين في 9 كانون الثاني (يناير) 2019. خلفية التأكيد على الحاجة إلى الذكاء الاصطناعي القابل للتفسير هو أن الاحتفاظ به كصندوق أسود مختوم يجعل من المستحيل التحقق من التحيزات أو إصلاحها أو حل المشاكل الأخرى في البرمجة. وضعت IBM نفسها في معسكر العمل من أجل حل هذه المشكلة ، ليس فقط تقديم خدمات الحوسبة للشركات ، ولكن أيضًا المشاورات حول الحد من التحيز بالنسبة لأولئك الذين يبنون أنظمة تعلم الآلة. (تعرف على المزيد حول الذكاء الاصطناعى القابل للتفسير في الذكاء الاصطناعي.


No Bugs، No Stress - دليلك خطوة بخطوة لإنشاء برامج لتغيير الحياة دون تدمير حياتك

لا يمكنك تحسين مهارات البرمجة لديك عندما لا يهتم أحد بجودة البرنامج.

3. “النهائي محرك البحث، والتي من شأنها أن تفهم ، كما تعلمون ، بالضبط ما أردت عند كتابة طلب بحث ، وسوف يعطيك الشيء الصحيح الصحيح مرة أخرى ، في علوم الكمبيوتر نحن نسمي هذا الذكاء الاصطناعي. هذا يعني أنه سيكون ذكيًا ، ونحن بعيدون عن امتلاك أجهزة كمبيوتر ذكية. " - الصفحة اري

صرح بذلك المؤسس المشارك والمدير التنفيذي لشركة Google في ذلك الوقت في نوفمبر 2002 خلال جزء من برنامج PBS NewsHour بعنوان "Google: محرك البحث الذي يمكن." صنّفها المجتمع كأكثر الأفعال المفيدة التي يجب إضافتها إلى الاستخدام ، على الرغم من أن الأمر سيستغرق بضع سنوات أخرى حتى يتم الاعتراف بها من قبل أمثال Merriam-Webster. لكن حتى في وقت مبكر ، أشارت الشركة إلى رغبتها في استخدام الذكاء الاصطناعي.

4. "تجنب على الإطلاق التكاليف أي ذكر أو ضمني لمنظمة العفو الدولية. من المحتمل أن يكون الذكاء الاصطناعي من أكثر الموضوعات حساسية في الذكاء الاصطناعي - إن لم يكن الأكثر. هذا هو اللحم الأحمر للوسائط لإيجاد كل الطرق لتلف Google. " - Fei Fei Li ، رائد في منظمة العفو الدولية في Google ، في مقابلة مع زملائه حول مشاركة الشركة في Project Maven

وجدت Google أن كونك لاعباً رئيسياً في الذكاء الاصطناعى يمكن أن يكون له جانب سلبي. في يوليو 2017 ، قدمت وزارة الدفاع أهدافها لمشروع Maven. وتحدث العقيد فيلق مشاة البحرية ، درو كوكور ، رئيس الفريق متعدد المهام للحرب الخوارزمية في إدارة الاستخبارات والمراقبة وعمليات الاستطلاع - دعم المقاتلين في مكتب وكيل وزارة الدفاع للمخابرات عن هدفهم المعلن لهذا العام: "الناس و ستعمل أجهزة الكمبيوتر بشكل تكافلي لزيادة قدرة أنظمة الأسلحة على اكتشاف الأشياء ".

كانت Google شريكًا في هذا المشروع ، لكن - كما هو موضح في الاقتباس أعلاه - لم يعجبه موظفو Google. في النهاية ، استسلمت الشركة للضغوط ، وفي يونيو 2018 أعلنت أنها لن تجدد عقدها مع وزارة الدفاع. كما ذكرت اعتراض:

واجهت Google ضغوطًا متزايدة منذ أن كشفت شركة Gizmodo و The Intercept العقد في مارس. استقال ما يقرب من 12 موظفًا احتجاجًا ، ووقع عدة آلاف خطابًا مفتوحًا يعلن فيه أن "Google يجب ألا تكون في مجال الحرب". كما وقع أكثر من 700 من الأكاديميين على رسالة تطالب "Google بإنهاء عقدها مع DoD ، وأن تلتزم Google وشركتها الأم Alphabet بعدم تطوير التقنيات العسكرية وعدم استخدام البيانات الشخصية التي يجمعونها لأغراض عسكرية. "

5. "سوف يصل الذكاء الاصطناعي إلى مستويات الإنسان بحلول عام 2029. اتبع ذلك إلى أبعد من ذلك ، على سبيل المثال ، 2045 ، سنكون قد ضاعفنا الذكاء ، والذكاء البيولوجي البشري لحضارتنا مليار مرة." - راي كورزويل

قال المستقبلي والمخترع هذا في مقابلة عام 2012 تحدث فيها عن تحقيق الخلود من خلال القوة الحاسوبية. لقد أكد شخصية "المليار" وشرحها على النحو التالي: "هذا تغيير فريد لدرجة أننا استعارنا هذا الاستعارة من الفيزياء ونطلق عليها اسم التفرد ، وهو تغيير اضطراب عميق في تاريخ البشرية. سيصبح تفكيرنا مزيجًا من التفكير البيولوجي وغير البيولوجي. "من الواضح أنه أحد المستقبليين المتفائلين ، حيث يمثلون تغييرًا مثيرًا للانفجار سيكون ذا فائدة كبيرة. وأوضح أيضًا سبب اعتقاده بأن الخلود في متناول اليد: "سنضيف أكثر من عام سنويًا إلى متوسط ​​العمر المتوقع المتبقي ، حيث تنفد رمال الوقت بدلاً من النفاد ، حيث يمتد العمر المتوقع المتبقي فعليًا يمر الوقت."

6. إن أكبر فائدة من وصول الذكاء الاصطناعي هي أن الذكاء الاصطناعي سيساعد في تحديد الإنسانية. نحن بحاجة إلى الذكاء الاصطناعى ليقول لنا من نحن ". - كيفن كيلي

كتب المؤسس المشارك ل Wired هذا التأكيد الكاسح في كتابه لعام 2016 ، "لا مفر منه: فهم القوى التكنولوجية الـ 12 التي ستشكل مستقبلنا". بينما يتصور ظهور الأتمتة والوظائف التي يتم الاستيلاء عليها بواسطة الروبوتات ، يتوقع أن هناك ستكون دورة متكررة من الإنكار ، لكن التقدم أمر لا مفر منه ، وسيتعين علينا التكيف مع ذلك. كما أوضح في مقابلة مع IBM: "من خلال الذكاء الاصطناعي ، سنقوم باختراع العديد من أنواع التفكير الجديدة التي لا وجود لها بيولوجيًا والتي لا تشبه التفكير الإنساني" ، والبطانة الفضية لسحابة الكمبيوتر التي يبرزها هل هذا: "لذلك ، هذا الذكاء لا يحل محل التفكير البشري ، لكنه يعززه".

7. "الخطر الحقيقي في الذكاء الاصطناعي ليس خبثًا بل كفاءته. أ منظمة العفو الدولية سيكون جيدًا جدًا في تحقيق أهدافه ، وإذا لم تتوافق هذه الأهداف مع أهدافنا ، فنحن في ورطة. من المحتمل أنك لست كرهًا شريرًا ينطلق من النمل بسبب الخبث ، لكن إذا كنت مسؤولاً عن مشروع للطاقة الكهرومائية الخضراء وهناك نمل في المنطقة يغمره النمل ، فهو سيء جدًا للنمل. دعونا لا نضع الإنسانية في موقف هؤلاء النمل ". - ستيفن هوكينج

يرجع تاريخ هذا الاقتباس إلى أوائل عام 2015. كان هذا هو الجواب الذي قدمه ستيفن هوكينج خلال جلسة أسئلة وأجوبة من رديت AMA (اسألني أي شيء) على سؤال من مدرس أراد أن يعرف كيفية معالجة بعض مخاوف الذكاء الاصطناعي التي تظهر في فصوله الدراسية ، وهي: التالية:

كيف تمثل معتقداتك الخاصة في صفي؟ هل وجهات نظرنا قابلة للتوفيق؟ هل تعتقد أن عادتي في استخلاص "الشرير AI" من شخص عادي على غرار المنهي أمر ساذج؟ وأخيرًا ، ما هي الأخلاق التي تعتقد أنه ينبغي عليّ تعزيزها لطلابي المهتمين بعلم الذكاء الاصطناعى؟

يُظهر هوكينج بعض القلق بشأن الآثار المدمرة المحتملة لمنظمة العفو الدولية على البشرية ، رغم أنه يبدو أنه يعتقد أنه يمكن إدارة المخاطر إذا كنا نخطط لها ، وهي وجهة نظر يشاركها البعض الآخر. (لمزيد من المعلومات حول هذا ، راجع لماذا لن تقوم أنظمة الذكاء الاصطناعي الفائقة بتدمير البشر في أي وقت قريب.)

8. "أنت تريد أن تعرف كيف فائقة الذكاء السيبورج قد تعامل البشر اللحم والدم العادي؟ بداية أفضل من خلال التحقيق في كيفية تعامل البشر مع أبناء عمومة الحيوانات الأقل ذكاء. إنه ليس تشبيهًا مثاليًا ، بالطبع ، ولكنه أفضل نموذج يمكن أن نلاحظه بالفعل بدلاً من مجرد تخيله ". - يوفال نوح هراري

أصدر البروفيسور هراري هذا التصريح في كتابه لعام 2017 ، "هومو ديوس: تاريخ موجز للغد". وجهة نظره هي أعمدة بصرف النظر عن مستقبل المستقبليين الإيجابيين في تصور ظهور ما يسميه البيانات التي يتخلى فيها البشر عن الأرض المتفوقة للتقدم الذكاء الاصطناعي. نحن ملتزمون بوضع الفيضان في شرح هوكينغ. هذا مستقبل يسيطر عليه "نظام معالجة البيانات الكوني" الموجود في كل مكان والمجهول ، والمقاومة عقيمة.

9. "يجب علينا أن نتصدى ، بشكل فردي وجماعي ، للقضايا الأخلاقية والأخلاقية التي يثيرها البحث المتطور في الذكاء الاصطناعي و التكنولوجيا الحيوية، مما سيمكن من إطالة العمر الافتراضي ، والأطفال المصممون ، واستخراج الذاكرة. " - كلاوس شواب

نشر شواب أفكاره حول الثورة الصناعية الرابعة في يناير 2016. مثل المستقبليين الإيجابيين ، تصوّر أن المستقبل سوف يدمج "العالم الفيزيائي والرقمي والبيولوجي بطرق من شأنها أن تحول الجنس البشري بشكل جذري." لكنه لم يأخذ ذلك كأمر مسلم به أن مثل هذا التحول "إيجابي" ، وحث الناس على التخطيط للمستقبل مع الوعي بكل من "المخاطر والفرص التي تنشأ على طول الطريق".

10. "لقد كتب الكثير عن إمكانات منظمة العفو الدولية لتعكس أفضل وأسوأ البشرية. على سبيل المثال ، لقد رأينا منظمة العفو الدولية تقدم المحادثة والراحة للوحدة ؛ لقد رأينا منظمة العفو الدولية تشارك في التمييز العنصري. ومع ذلك ، فإن الضرر الأكبر الذي من المحتمل أن تحدثه منظمة العفو الدولية للأفراد على المدى القصير هو النزوح الوظيفي ، حيث أن حجم العمل الذي يمكننا العمل به تلقائيًا مع الذكاء الاصطناعي أكبر بكثير من ذي قبل. كقادة ، يجب علينا جميعًا التأكد من أننا نبني عالماً تتاح فيه لكل فرد فرصة للنمو. " - أندرو نغ

يأتي هذا الاقتباس من "ما يمكن أن تفعله الذكاء الاصطناعي وما لا تستطيع فعله الآن" ، مقالة أندرو نغ ، المؤسس المؤسس لفريق Google Brain ، المدير السابق لمختبر ستانفورد للذكاء الاصطناعي ، الذي كتبه لجامعة هارفارد بيزنس ريفيو في عام 2016 عندما كان الرصاص الشامل لفريق بايدو لمنظمة العفو الدولية. (في عام 2017 ، أصبح مؤسس ومدير شركة Landing AI.) وهو يشرح إمكانيات وحدود منظمة العفو الدولية كما كانت في ذلك الوقت ، وما زال صالحًا حتى اليوم. في حين أن Ng لا يطرح مستقبلاً للديستوبيا المهيمنة على البيانات ، إلا أنه يوافق على أن أولئك الذين يطورونها يتحملون مسؤولية تطبيقه بمسؤولية مع فهم كامل لعواقبه المقصودة وغير المقصودة.

11. "لا يوجد سبب ولا يمكن لعقل بشري مواكبة آلة ذكية اصطناعية بحلول عام 2035". - غراي سكوت

هذا الاقتباس غير مكتوب بطريقة خاطئة ، على الرغم من أنه ينحرف عن الطريقة التي سترى بها في أي مكان آخر عبر الإنترنت لأنه يظهر دائمًا على أنه "لا يوجد سبب ولا يمكن لعقل بشري مواكبة جهاز الذكاء الاصطناعي بحلول عام 2035". قصة. استنادًا إلى مدى ظهوره في المصادر الرقمية ، قيل على الأرجح في عام 2015. ومع ذلك ، لم أتمكن من تثبيته لأي خدع معينة حتى بعد ساعات من البحث من خلال مقاطع الفيديو ومقاطع الفيديو من تلك الفترة. لذلك اتصلت سكوت نفسه لطلب المصدر. اعترف ، "لا أتذكر عندما كانت المرة الأولى التي قلت فيها هذا أو مكانه". لكنه استذكر صياغته: "كان الاقتباس خطأًا دائمًا. يجب أن تقرأ "الذكاء الاصطناعي". "