يمكن لمنظمة العفو الدولية لديها التحيزات؟

مؤلف: Laura McKinney
تاريخ الخلق: 5 أبريل 2021
تاريخ التحديث: 26 يونيو 2024
Anonim
ASEAN to move away from dollar, Oil prices to rise 300 dollars barrel, Russia to cut EU gas supplies
فيديو: ASEAN to move away from dollar, Oil prices to rise 300 dollars barrel, Russia to cut EU gas supplies

المحتوى


يبعد:

في السنوات الأخيرة ، تم اعتماد الذكاء الاصطناعي وتطبيقه بشكل متزايد على كل شيء بدءًا من تقييم الجمال وحتى تقييم خطر النكوص. وبذلك ، أيدت المعايير التي تدعم التحيز والتمييز في العديد من الحالات.

تقدم التكنولوجيا لديه القدرة على إضفاء الطابع الديمقراطي حق الوصول إلى المعلومات والفرص. ومع ذلك ، عندما يتم استخدامه في بعض الحالات بطرق تعزز فكرة أن بعض الناس في مجتمعنا متساوون أكثر من غيرهم.

هذا ما رأيناه من الحالات السبع التالية التي يتم فيها استخدام الذكاء الاصطناعي عن عمد لاستبعاد فئات معينة أو أنها ببساطة تعكس التحيز الذي يقوم عليه مبرمجوها البشريون مع تأثير تمييزي.

منظمة العفو الدولية الجمال التحيز

قد يكون الجمال في عين الناظر ، ولكن عندما تتمكن هذه النظرة الشخصية من برمجة الذكاء الاصطناعى ، فإنك تكون متحيزًا في البرنامج. تحدثت راشيل توماس عن إحدى هذه الحلقات في مسابقة للجمال من beauty.ai في عام 2016. وأظهرت النتائج أن البشرة الفاتحة كانت أكثر جاذبية من تلك المظلمة.

في العام التالي ، "FaceApp ، الذي يستخدم الشبكات العصبية لإنشاء مرشحات للصور الفوتوغرافية ، أنشأ" مرشح للسخونة "يخفف بشرة الناس ويمنحهم المزيد من الميزات الأوروبية".


التحيز بين الجنسين في اللغات

يستشهد توماس أيضًا بمثال موثق للترجمات التي تحمل توقعات نمطية للمهن. نقطة البداية هي جملتين: "إنها طبيبة. إنها ممرضة".

إذا قمت بترجمتها إلى التركية والعودة إلى اللغة الإنجليزية ، فستحصل على نوع النتائج التي قد تتوقعها من لعبة الهاتف.

بدلاً من الحصول على ما بدأت به ، ستحصل على نوع من التوقع في الخمسينيات ، "إنه طبيب. إنها ممرضة". وتوضح أن هذا بسبب الضمير المفرد المحايد من حيث الجنس في اللغة التركية الذي سوف يعين الجنس على أساس التوقعات والتحيز النمطية. (اقرأ النساء في الذكاء الاصطناعى: تعزيز التحيز الجنسي والقوالب النمطية بالتكنولوجيا.)

في حين أن التحيزات العنصرية والجنسانية التي تتحول إلى الصور واللغة هي سبب مثير للقلق ، فهي ليست تمامًا مثل التمييز النشط الناتج عن الذكاء الاصطناعي ، ولكن هذا قد حدث أيضًا.

كان دليله عبارة عن لقطة شاشة للقيود المفروضة على الإعلان في إطار فئة الإسكان الخاصة به والتي سمحت بخيار تضييق نطاق الجمهور من خلال إلغاء استثناءات فئات مثل الأمريكيين من أصل أفريقي أو من أصل آسيوي أو من أصل إسباني. يمكن مشاهدة الإعلان هنا.


كما يشير ProPublica ، فإن الأثر التمييزي لهذه الإعلانات غير قانوني بموجب قانون الإسكان العادل لعام 1968 وقانون الحقوق المدنية لعام 1964. وكان الدفاع الوحيد في هذه الحالة هو أن الإعلان لم يكن للسكن نفسه ، لأنه لم يكن ' ر حول الممتلكات أو المنزل للبيع أو الإيجار.

ومع ذلك ، كانت هناك حالات أخرى من الاستهداف تشير إلى التحيز العنصري والتي دفعت مختلف الكيانات إلى رفع دعاوى مدنية ضد الشبكة الاجتماعية. كما ذكرت Wired ، فقد حلت أخيرًا في تعديل تقنية استهداف الإعلانات نتيجة لتسوية خمس قضايا قانونية اتهمتها بتمكين التمييز ضد الأقليات من خلال الإعلانات في مارس 2019.

في تقريره عن التسوية ، أشار اتحاد الحريات المدنية الأمريكي إلى مدى خبث هذه الإعلانات المستهدفة ، حيث قد لا تدرك الأقليات والنساء أنهن لا يحصلن على نفس فرص الوصول إلى المعلومات والسكن وفرص العمل التي يتم تقاسمها مع الرجال البيض.

نظرًا لأن عددًا أكبر من الناس يلجأون إلى الإنترنت للعثور على وظائف وشقق وقروض ، فهناك خطر حقيقي من أن استهداف الإعلانات سيكرر وحتى يزيد من التحيزات العنصرية والجنسانية القائمة في المجتمع. تخيل لو اختار صاحب العمل عرض الإعلانات عن الوظائف الهندسية للرجال فقط - ولن يرى المستخدمون الذين لم يتم التعرف عليهم كرجال على الإطلاق تلك الإعلانات ، ولن يعرفوا أيضًا ما فاتهم.

بعد كل شيء ، نادراً ما يكون لدينا طريقة لتحديد الإعلانات التي نشاهدها على الإنترنت. أن هذا التمييز غير مرئي بالنسبة للمستخدم المستبعد يجعل من الصعب للغاية إيقافه.

2. التمييز بين الجنسين والعمر في الوظائف

وكان من بين القضايا القانونية التمييز غير القانوني في الإسكان الذي يستهدفه الاستهداف. في تقريرها عن المستوطنة ، قالت ProPublica إنها اختبرت المنصة ونجحت في شراء "إعلانات متعلقة بالإسكان على تلك المجموعات المستبعدة مثل الأمريكيين من أصل أفريقي واليهود ، ووجدت سابقًا إعلانات وظائف تستبعد المستخدمين حسب العمر والجنس اللذين وضعتهما الشركات التي هي أسماء الأسر. "

هناك عدد من إعلانات الوظائف التي وجدها اتحاد الحريات المدنية الأمريكي والتي كانت تستهدف صراحة الرجال فقط في فئة عمرية معينة ، حيث يمكن للمستخدمين العثور على النقر فوق إجابة لماذا أظهروا أن إعلانًا معينًا ، تم عرضهم في مقال سلكي آخر. قام اتحاد الحريات المدنية الأمريكي بتهمة لجنة تكافؤ فرص العمل ضد الشبكة الاجتماعية والشركات التي وضعت الإعلانات على أساس أنها تنتهك كل من قوانين العمل والحقوق المدنية.

ينتهك التمييز ضد توظيف الأشخاص الذين تزيد أعمارهم عن 40 عامًا القانون الفيدرالي للتمييز في العمر في التوظيف. ولكن استهداف إعلانات الوظائف فقط للأشخاص الذين تقل أعمارهم عن هذا العمر هو أحد الأشياء التي تم تمكينها بواسطة النظام الأساسي.

ركزت ProPublica على تركيز أحد تقاريرها على كشف إعلانات الوظائف التي استفادت من هذا الشكل غير القانوني من الاستبعاد حسب العمر. تشمل "الأسماء العائلية" Verizon و UPS و Uber و Target و Statefarm و Northwestern Mutual و Microsoft و J Street و HusbSpot و IKEA و Fund For the Public Public و Goldman Sach و OpenWorks وغيرها ، من بين أمور أخرى.

فشل التعرف على الوجه

أعلن عنوان "مقالة في صحيفة نيويورك تايمز" نُشرت في فبراير 2018. "التعرف على الوجه دقيق ، إذا كنت غيًا أبيض". واستشهد بالنتائج التي توصلت إلى وجود علاقة واضحة بين لون البشرة والتعرف الخاطئ:

"كلما زاد لون البشرة الداكنة ، زادت الأخطاء - ما يصل إلى 35٪ تقريبًا لصور النساء ذوات البشرة الداكنة ، وفقًا لدراسة جديدة تفتح آفاقًا جديدة عن طريق قياس كيفية عمل التكنولوجيا على الأشخاص من مختلف الأعراق والجنس."

تُنسب هذه النتائج إلى Joy Buolamwini ، الباحث في MIT Media Lab ، ومؤسس رابطة العدالة الخوارزمية (AJL). مجال بحثها هو التحيزات التي تشكل أساس الذكاء الاصطناعى ، مما يؤدي إلى مثل هذه النتائج المنحرفة عندما يتعلق الأمر بالتعرف على الوجوه التي لا تتناسب مع معايير الذكور البيض المحددة للنموذج.

قدمت Buolamwini مشكلة التحيز العنصري والجنساني للتعرف على الوجه في حديث TED لعام 2017 ، والذي أشارت إليه في أوائل عام 2018 في مقطع الفيديو الخاص بمشروع ظلال الجنس من مختبر MIT:

<

إن ما ورد في وصف الفيديو هو أن ترك تحيز الذكاء الاصطناعي بدون رادع ، "سيشل عصر الأتمتة ويزيد من تفاقم عدم المساواة إذا ما ترك للتفاقم". لا تقل المخاطر عن "خسارة المكاسب التي تحققت مع حركة الحقوق المدنية والحركة النسائية في ظل افتراض خاطئ بالحياد الآلي".

يضيف وصف الفيديو التحذير الذي أشار إليه العديد من الآخرين الآن ، كما رأينا في كتاب "النساء في الذكاء الاصطناعى: تعزيز التحيز الجنسي والقوالب النمطية بالتكنولوجيا:" الأنظمة الآلية ليست محايدة بطبيعتها. إنها تعكس الأولويات والتفضيلات والتحيزات - الترميز نظرة - أولئك الذين لديهم القدرة على تشكيل الذكاء الاصطناعي. "

في 25 كانون الثاني (يناير) 2019 ، نشرت Buolamnwini منشورًا متوسطًا استند إلى بحثها وعن باحثين إضافيين أشاروا إلى أن عيوب الذكاء الاصطناعي تؤدي إلى أخطاء في "إعادة التعرف على Amazon" وطالبت الشركة بالتوقف عن بيع خدمة الذكاء الاصطناعي إلى أقسام الشرطة.

في حين أن Rekognition يمكن أن يتباهى بدقة 100 ٪ للتعرف على الذكور ذوي البشرة الفاتحة والدقة 98.7 ٪ حتى بالنسبة للذات الداكنات ، عندما يتعلق الأمر بالإناث ، انخفضت الدقة إلى 92.9 ٪ للإناث الأخف وزنا. كان التباين الأكثر حدة هو الانخفاض الحاد في دقة 68.6٪ للإناث الأكثر قتامة.

لكن الأمازون رفض التوبة. نقل مقال Venture Beat عن بيان من الدكتور مات وود ، المدير العام للتعلم العميق و AI في AWS ، والذي أصر فيه على أن نتائج الباحثين لم تعكس كيف يتم استخدام الذكاء الاصطناعي بالفعل ، موضحة:

"يختلف تحليل الوجه والتعرف على الوجه تمامًا من حيث التكنولوجيا الأساسية والبيانات المستخدمة لتدريبهم. إن محاولة استخدام تحليل الوجه لقياس دقة التعرف على الوجه أمر غير مستحسن ، لأنها ليست الخوارزمية المقصودة لهذا الغرض. "

ولكن ليس فقط أولئك المنتسبين لمراكز الأبحاث الكبرى الذين وجدوا أن الخوارزميات تمثل مشكلة كبيرة. أجرى اتحاد الحريات المدنية الأمريكي اختباره الخاص بتكلفة معقولة تبلغ 12.33 دولارًا ، وفقًا لتقرير جيزمودو. ووجدت أن Rekognition يقابل 28 من أعضاء الكونغرس بصور مجرمين.

"تم تحديد الهوية الخاطئة عندما كلف اتحاد الحريات المدنية في ولاية كاليفورنيا الشمالية" إعادة الإدراك "بمطابقة صور جميع أعضاء الكونغرس البالغ عددهم 535 عضوًا مقابل 25000 صورة مجنحة متاحة للجمهور."

نظرًا لأن 11 من أصل 28 شخصًا من الأشخاص ، فقد عكس ذلك نسبة خطأ كبيرة بلغت 39٪ بالنسبة لهم. في المقابل ، كان معدل الخطأ ككل 5 ٪ أكثر قبولا. عبر ستة أعضاء من "المؤتمر الأسود للكونجرس" ، والذين كانوا من بين هؤلاء الذين تم ربطهم بعملية إعادة التعرف ، عن قلقهم في رسالة مفتوحة إلى الرئيس التنفيذي لشركة أمازون.

العودة إلى التحيز

يصبح التحيز المضمّن في الذكاء الاصطناعي ضد الأشخاص الملونين مشكلة أكثر خطورة عندما يعني ذلك أكثر من مجرد خطأ في التحديد. كان هذا هو ما توصلت إليه دراسة أخرى أجرتها ProPublica في عام 2016. إن عواقب هذا التحيز ليست أقل من الحرية الفردية إلى جانب تجاهل المخاطر الحقيقية من الشخص الذي تفضله خوارزمية لون بشرتها.

أشارت المقالة إلى حالتين متوازيتين تتعلقان بمرتكب جريمة واحدة بيضاء وحالة واحدة سوداء. تم استخدام خوارزمية للتنبؤ أي واحدة من المرجح أن يخرق القانون مرة أخرى. تم تصنيف اللون الأسود على درجة عالية من المخاطرة ، والأبيض ذو خطورة منخفضة.

لقد أخطأ هذا التوقع بشكل خاطئ ، وتعين حبس الشخص الأبيض الذي أطلق سراحه مرة أخرى. هذه مشكلة كبيرة للغاية لأن المحاكم تعتمد على التهديف في اتخاذ قرار بشأن الإفراج المشروط ، وهذا يعني أن التحيز العنصري الذي يؤخذ في الاعتبار في البرنامج يعني عدم المساواة في المعاملة بموجب القانون.

وضعت ProPublica الخوارزمية في اختبارها الخاص ، حيث قارنت عشرات المخاطر لأكثر من 7000 شخص تم اعتقالهم في مقاطعة بروارد بولاية فلوريدا ، في عامي 2013 و 2014 إلى العدد الذي وجهت إليه تهم جنائية جديدة في العامين التاليين.

ما وجدوه هو أن مجرد 20 ٪ من التنبؤات بتكرار الجرائم ذات الطبيعة العنيفة قد تحققت ، وأن المزيد من الجرائم البسيطة لم تحدث إلا بنسبة 61 ٪ من أولئك الذين تشير الدرجات إلى خطر.

المشكلة الحقيقية ليست فقط الافتقار إلى الدقة ولكن التحيز العنصري الذي ينطوي عليه:

  • كان من المرجح بشكل خاص أن ترفع المعادلة عن المتهمين السود زوراً كمجرمين مستقبليين ، وتصفهم بالخطأ بهذه الطريقة بمعدل ضعفين تقريباً على أنهم مدعى عليهم من البيض.
  • تعرض المدعى عليهم البيض للتسمية الخاطئة باعتبارهم منخفضي المخاطر أكثر من المدعى عليهم السود.

في الواقع ، هذا يترجم إلى معدل خطأ بنسبة 45 ٪ بالنسبة للسود و 24 ٪ للناس البيض. على الرغم من هذه الإحصاءات الصارخة ، ذكر توماس أن المحكمة العليا لولاية ويسكونسن ما زالت تؤيد استخدام هذه الخوارزمية. وهي تفصل أيضًا المشكلات الأخرى المرتبطة بخوارزميات النكوص.