لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟ تقديم: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0)؛})؛ Q:

مؤلف: Roger Morrison
تاريخ الخلق: 25 شهر تسعة 2021
تاريخ التحديث: 9 قد 2024
Anonim
لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟ تقديم: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0)؛})؛ Q: - تقنية
لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟ تقديم: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0)؛})؛ Q: - تقنية

المحتوى

تقديم: AltaML



Q:

لماذا تفكر بعض الشركات في إضافة "عناصر تحكم ردود الفعل البشرية" إلى أنظمة الذكاء الاصطناعي الحديثة؟

أ:

تعمل بعض الشركات التي تعمل بتقنية الذكاء الاصطناعي المتطورة على إنشاء ضوابط بشرية لهذه الأنظمة ، مما يوفر أدوات التعلم الآلي والتعلم العميق بعض الرقابة البشرية المباشرة. إن هاتين الشركتين ليسا لاعبين صغيرين ، كلاهما - DeepMind من شركة Google و OpenAI من شركة Elon Musk ، هما مثالان على الشركات الكبرى التي تتعرف على تطورات الذكاء الاصطناعي. مع وضع ذلك في الاعتبار ، تختلف النتائج - على سبيل المثال ، كان DeepMind موضع جدل بسبب عدم رغبته المتصورة في توفير البيانات الرئيسية للجمهور ، في حين أن OpenAI أكثر من ذلك بكثير ، افتح حول عملها في السيطرة على الذكاء الاصطناعي.

حتى أن بعض الشخصيات البارزة مثل بيل جيتس قد أثرت في القضية ، حيث قال غيتس إنه واحد من كثيرين يشعرون بالقلق من ظهور الذكاء الخارق المصطنع الذي قد يتجاوز في بعض الأحيان التحكم البشري. Musk ، من جانبه ، قد طرح بعض اللغة المزعجة حول إمكانية "المارقة AI".


ربما يكون هذا هو السبب الأكثر إلحاحًا في أن الشركات تعمل على تطبيق الضوابط البشرية على الذكاء الاصطناعي - فكرة أن بعض الخصائص التكنولوجية ستؤدي إلى تقنية عاطفية قوية للغاية لا يمكن للبشر التحكم فيها بعد الآن. منذ فجر الطموحات الإنسانية ، وضعنا الأدوات اللازمة للتأكد من أننا قادرون على التحكم في الصلاحيات التي نمارسها - سواء كانت خيول مع مقاليد أو تسخير ، أو كهرباء في أسلاك معزولة ، أو أي آلية تحكم أخرى ، السيطرة هي وظيفة إنسانية فطرية ، وبالتالي فمن المنطقي في العالم أنه مع اقتراب الذكاء الاصطناعي من الوظيفة الحقيقية ، يطبق البشر ضوابطهم المباشرة للحفاظ على تلك القوة قيد الفحص.

ومع ذلك ، فإن الخوف من الروبوتات فائقة الذكاء ليس هو السبب الوحيد الذي يجعل الشركات تطبق ضوابط بشرية على مشاريع التعلم الآلي ومشاريع الذكاء الاصطناعي. سبب رئيسي آخر هو التحيز في الآلة - هذه هي فكرة أن أنظمة الذكاء الاصطناعي غالباً ما تكون محدودة في كيفية تقييم البيانات المعنية - بحيث تضخّم أي تحيز متأصل في النظام. يمكن لمعظم المهنيين الذين يتعاملون مع التعلم الآلي سرد ​​قصص الرعب عن أنظمة تكنولوجيا المعلومات التي لم تكن قادرة على التعامل مع مجموعات المستخدمين البشر على حد سواء - سواء كان التفاوت بين الجنسين أو العرق ، أو بعض الإخفاقات الأخرى للنظام في فهم الفروق الدقيقة لمجتمعاتنا البشرية و كيف نتفاعل مع الناس.


بمعنى ما ، قد نضع ضوابط بشرية على الأنظمة لأننا نخشى أن تكون قوية للغاية - أو بالتناوب ، لأننا نخشى أنها قد لا تكون قوية بما فيه الكفاية. تساعد أدوات التحكم البشرية في استهداف مجموعات بيانات التعلم الآلي لتوفير المزيد من الدقة. إنها تساعد في تعزيز الأفكار التي لا يمكن للكمبيوتر تعلمها من تلقاء نفسه ، إما لأن النموذج ليس متطورًا بدرجة كافية ، لأن الذكاء الاصطناعى لم يتقدم كثيرًا بما فيه الكفاية ، أو لأن بعض الأشياء تكمن فقط في مقاطعة الإدراك البشري. الذكاء الاصطناعي يعد أمرًا رائعًا بالنسبة لبعض الأشياء - على سبيل المثال ، يسمح نظام قائم على المكافآت والنتائج الذكاء الاصطناعي لهزيمة لاعب بشري في لعبة لوح التزلج "Go" المعقدة للغاية - ولكن بالنسبة إلى أشياء أخرى ، فإن هذا النظام القائم على الحوافز هو غير كافية تماما.

باختصار ، هناك العديد من الأسباب الملحة لإبقاء المستخدمين البشر يشاركون مباشرة في كيفية عمل مشاريع الذكاء الاصطناعي. حتى أفضل تقنيات الذكاء الاصطناعي يمكن أن تفعل الكثير من التفكير من تلقاء نفسها - ولكن من دون عقل بشري حقيقي يمكن أن يعالج أشياء مثل العواطف والأعراف الاجتماعية ، فإنهم ببساطة لا يمكنهم رؤية الصورة الكبيرة بطريقة إنسانية.

شركة تعلم الآلة الماهرة يمكن أن تساعد في تحقيق هذا التوازن مع مزيج من خبراء الأعمال والمواد الدراسية ومطوري التعلم الآلي ذوي المهارات اللازمة لحل مشاكل الأعمال الكبيرة.