مع التقدم الكبير يأتي مسؤولية كبيرة

مؤلف: Roger Morrison
تاريخ الخلق: 27 شهر تسعة 2021
تاريخ التحديث: 1 تموز 2024
Anonim
المفاجأة الكبرى|نينا تيكولز|TEDxEast
فيديو: المفاجأة الكبرى|نينا تيكولز|TEDxEast

المحتوى


المصدر: Mike2focus / Dreamstime.com

يبعد:

يتطور استهلاك الوسائط جنبًا إلى جنب مع التطورات التكنولوجية مثل الذكاء الاصطناعي (الذكاء الاصطناعي). على الرغم من أننا نحتضن عمومًا التقدم ، يجب أن ندرك أيضًا الجوانب السلبية لبعض أشكال التكنولوجيا. هناك جانب مظلم لقدرة الذكاء الاصطناعي عند استخدامه للترويج للأخبار المزيفة.

كان الجانب المظلم للتكنولوجيا من بين الموضوعات التي تم استكشافها في المؤتمر الثاني لـ Machines + Media التابع لمدينة نيويورك ، والذي رعته واستضافته بلومبرج في مقرها العالمي في المدينة في 15 مايو. على الرغم من أن بعض الجلسات كانت تدور حول معرفة التقنية متاح حاليًا لوسائل الإعلام ، حتى تلك التي أثيرت في ظل التلاعب والتضليل.

قصة جيدة أكثر إقناعا من الحقيقة الكاملة

في الجلسة المعنونة "حالة الفن" ، أشار جلعاد لوتان ، نائب رئيس قسم البيانات في Buzzfeed ، إلى أن مشكلة الأخبار المزيفة أو المضللة لا يمكن إلقاء اللوم عليها فقط على شركات الإعلام أو التكنولوجيا الجديدة. وقال "الناس لا يبحثون بالضرورة عن الحقائق". "القراء يريدون قصصا."


وأضاف أن إطعام تلك الرغبة في القصص والسرد المفضل يمكن أن يؤدي إلى أخبار وهمية "تلاعب أكثر من المعلومات الخاطئة". في الواقع ، قد لا تتضمن القصة المقدمة أي شيء خاطئ على الإطلاق. ما هو مزيف حول ذلك هو أن الحقائق المبلغ عنها يتم انتقاؤها من الكرز وإزالتها من "يخدع" أكبر من أجل قيادة "القراء نحو الاستنتاج".

على نفس المنوال ، في جلسة "منهاج + وسائط الإعلام" ، قالت كيلي بورن من مبادرة ديموقراطية "نحن الديمقراطية في مؤسسة ويليام وفلورا هيوليت:" يحب الناس الأخبار التي تعزز معتقداتهم ، وخاصة إذا كانت تثير الغضب. " على هذا الاتجاه يمكن أن يؤدي إلى "عاصفة مثالية" التي تبرز الأسوأ فينا. يتفاقم هذا بسبب إمكانية تقديم عروض ملفقة بالكامل.

هل ما زالت الرؤية مؤمنة؟

تلعب التكنولوجيا دورًا في سرد ​​القصة من خلال الصور والفيديو. نحن نعتقد عادة ما نراه ما لم تكن هناك علامات واضحة للتلاعب. ومع ذلك ، بما أن الذكاء الاصطناعى يحسّن من واقعية مقاطع الفيديو المزيفة ، فمن الممكن الآن وضع الكلمات حرفيًا في أفواه الشخصيات العامة. (لا يتم استخدام الذكاء الاصطناعي فقط للأغراض الشائنة. تحقق من بعض الأشياء البناءة في 5 طرق قد ترغب الشركات في أخذها بعين الاعتبار باستخدام الذكاء الاصطناعي.)


تم توضيح خطر إنتاج منظمة العفو الدولية لمقاطع فيديو يمكن تصديقها في الجلسة المعنونة "حلول للجانب المظلم من وسائل الإعلام التي تحركها الماكينات". وقد بدأ هذا الفيديو بتصوير يظهر فيه باراك أوباما يقول أشياء لم يقلها الرئيس السابق أبدًا. كانت الحركة لا تزال غير متزامنة قليلاً مع الكلمات ، لذا فهي تحتوي على بعض علامات مقطع فيديو مزيف ، وقال معظم الجمهور إن بإمكانهم التعرف عليه على أنه مزيف.

أن التلاعب بأوباما بالفيديو لم يحقق واقعية إحياء بيتر كوشينغ في دور جراند موف تاركين في فيلم "روغ ون". وكما أوضح مقال في صحيفة نيويورك تايمز ، تم تحقيق التأثير من خلال ارتداء ممثل "مواد التقاط الحركة على رأسه" بينما أمام الكاميرا "حتى يمكن استبدال وجهه بإعادة إنشاء رقمية لكوشينغ". ووصفها كبير المسؤولين الإبداعيين / كبير المشرفين على المؤثرات البصرية في الفيلم بأنها "نسخة فائقة التقنية وتتطلب عمالة مكثفة ميك أب."

مزيف لا يمكن اكتشافه

الآن ، بفضل التقدم الذي حققته منظمة العفو الدولية ، وعلى وجه التحديد ، شبكات الخصومات التوليدية (GANs) ، أصبح تحقيق تأثيرات سحرية للأفلام أسهل من أي وقت مضى. باستخدام GANs ، يقوم نظام واحد من أنظمة الذكاء الاصطناعي بتحسين اللقطات إلى أن تصبح جيدة بما يكفي ليتم قبولها على أنها حقيقية من خلال نظام الذكاء الاصطناعي المصمم لاكتشاف المنتجات المقلدة.

No Bugs، No Stress - دليلك خطوة بخطوة لإنشاء برامج لتغيير الحياة دون تدمير حياتك

لا يمكنك تحسين مهارات البرمجة لديك عندما لا يهتم أحد بجودة البرنامج.

في هذا الفيديو ، يمكنك أن ترى الباحثين يوضحون كيف يمكن للممثل أن يوجه حركات وجه شخصية عامة لإنتاج أي تعبير ونطق بمستوى الدقة الذي لا يوجد عادة في مقاطع الفيديو التي تتم معالجتها.

بينما ليس لدى كل شخص يلعب بمقاطع الفيديو مثل هذا النظام المتاح في الوقت الحالي ، فإن البرنامج سيكون في متناول المزيد من الأشخاص في المستقبل القريب.

العواقب المحتملة

يقول Dhruv Ghulati ، المؤسس والرئيس التنفيذي لشركة Factmata ، إنه "قلق للغاية" بشأن كيفية تطبيق هذه القدرة على وضع وجوه قادة العالم والرؤساء التنفيذيين والمشاهير ليس فقط في مقاطع الفيديو كدليل على قولهم أو القيام بأشياء لم يفعلوها . سيتم تكثيف القوى المدمرة للفيديو من خلال تحقيق تأثير فيروسي من الروبوتات.

هذا يعني أننا "لم يعد بإمكاننا أن نثق في أعيننا الكاذبة" ، هذا ما أعلنه مور نعمان ، أستاذ مشارك في علم المعلومات في شركة كورنيل تك. كان يشعر بالقلق من شأنه أن يؤدي إلى فقدان الثقة.

البعض الآخر قلق حول تأجيج نيران العنف. "لقد تم بالفعل استخدام" مقاطع الفيديو التي تم تعديلها قليلاً "في التسبب في العنف في العالم النامي ، كما لاحظ تل أبيب عوفاديا ، كبير تقنيي مركز مسؤولية وسائل التواصل الاجتماعي. (يمكن أن تكون وسائل التواصل الاجتماعي وسيلة فعالة لنشر المعلومات الخاطئة. تحقق من أهم 4 أكواخ خبث مدمرة.)

أعربت سارة هدسون ، الشريكة في "الاستثمار في الولايات المتحدة" ، عن قلقها من أن الصور التي يتم التلاعب بها "على نطاق واسع" تشكل "تهديدًا لا يصدق للسلامة العامة".

التخطيط الاستباقي

وقال عوفاديا إنه من الضروري "منع أكبر قدر ممكن من هذا الانتهاك". لهذا السبب من المهم "التفكير في وقت مبكر مع تطوير التكنولوجيا" حول "كيفية التخفيف من الآثار السيئة" و "تكريس الموارد لمعالجة تلك العواقب غير المقصودة".

من المستحيل إعادة عقارب الساعة للتقدم ، لكن ما يتعين علينا فعله هو ضمان أن الاتجاه الذي نتخذه مدروس ومخطط له. هذا لا يعني فقط العمل على التكنولوجيا لمعرفة ما يمكن القيام به ولكن التفكير في ما يمكن فعله والذي يجب تجنبه.

الطريق إلى الأمام للابتكار التكنولوجي هو التفكير في الآثار التي قد تكون والتخطيط للضمانات قبل أن تتحقق المخاطر. للقيام بذلك ، سنحتاج إلى تعاون بين الباحثين وشركات التكنولوجيا والهيئات الحكومية لوضع المعايير وأفضل الممارسات التي يلتزم بها الناس. يجب أن يكون ذلك أولوية لجميع المعنيين.