في الأسابيع الأخيرة، أصبحت لوس أنجلوس ليس فقط مركزًا للاحتجاجات السياسية الساخنة ولكن أيضًا ساحة معركة رقمية حيث تنتشر المعلومات المضللة بسرعة فائقة. خرج الآلاف من السكان إلى الشوارع للاحتجاج على سياسات الهجرة لإدارة ترامب والعدد المتزايد من غارات ICE. لكن القصة لم تُنشر على أرض الواقع فقط؛ فقد انتشرت عبر منصات التواصل الاجتماعي المدعومة بالذكاء الاصطناعي - لا سيما من خلال روبوتات المحادثة مثل Grok و ChatGPT، التي أثارت الارتباك والجدل عن غير قصد.

في بودكاست WIRED «Uncanny Valley»، تناقش زوي شيفر (مديرة الأعمال والصناعة في WIRED) ومحررة السياسة البارزة ليا فيجر الارتفاع السريع والخطير للمعلومات المضللة القائمة على الذكاء الاصطناعي خلال الاحتجاجات، وتتبعوا كيف تعمل هذه الأدوات الآلية على تحريف الروايات ولماذا أصبح الاهتمام أكثر إلحاحًا من أي وقت مضى.

احتجاجات لوس أنجلوس: من الشوارع إلى المنصات الاجتماعية

كانت الموجات الأولى من الاحتجاج في لوس أنجلوس أصغر حجمًا وأكثر محلية مما اقترحته المنشورات الفيروسية. مع تصاعد نشاط ICE، تم المبالغة في المظاهرات المعزولة عبر الإنترنت حتى صورت وسائل التواصل الاجتماعي لوس أنجلوس على أنها تنحدر إلى فوضى عارمة. وصلت التوترات إلى مستوى جديد عندما أرسل الرئيس ترامب الحرس الوطني، مما أشعل نقاشًا ساخنًا حول السلطات الفيدرالية مقابل حقوق الولايات. تصاعدت الاعتقالات وانتشرت الصور المقلقة - بعضها حقيقي والبعض الآخر مشكوك فيه - على نطاق واسع، مما أجج القلق والغضب.

لكن الاضطرابات في العالم الحقيقي انعكست، بل وضخمت، عبر الإنترنت. وبينما كان الناس يحاولون التحقق مما يشاهدونه ويسمعونه على وسائل التواصل الاجتماعي، لجأ المزيد منهم إلى روبوتات المحادثة التي تعمل بالذكاء الاصطناعي للحصول على إجابات فورية - وأحيانًا مع عواقب غير مقصودة.

روبوتات المحادثة تتدخل وتضلل بثقة

في حين أن ارتفاع الشكوك العامة - الأشخاص الذين يرغبون في التحقق مما إذا كانت الصورة أو الفيديو حقيقيًا - هو علامة على تحسين محو الأمية الإعلامية، فإن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي غالبًا ما تفشل في تقديم إجابات موثوقة. أشارت ليا فيجر إلى أن الروبوتات مثل Grok و ChatGPT لا ترقى إلى مستوى التحدي المتمثل في التحقق من الحقائق في الوقت الفعلي والأحداث سريعة التطور. مع انتشار لقطات الاحتجاج القديمة والصور التي تم التلاعب بها وحتى مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، تقدم روبوتات المحادثة هذه في كثير من الأحيان تفسيرات واثقة ولكنها غير صحيحة.

على سبيل المثال، أظهرت صورة تم تداولها على نطاق واسع جنود الحرس الوطني نائمين في منشأة بكاليفورنيا، وشاركها الحاكم نيوسوم مع انتقاد شديد لظروفهم المعيشية. مع انتشار الشكوك حول أصالة الصورة على الإنترنت، أصر كل من Grok و ChatGPT عن طريق الخطأ على أن الصورة من أفغانستان وليس لوس أنجلوس. تم استغلال هذا الخطأ بسرعة من قبل منظري المؤامرة، مما تسبب في مزيد من الارتباك بين الجمهور.

يمكن أن تؤدي «هلوسات» روبوتات الدردشة بالذكاء الاصطناعي - حيث تخترع الروبوتات معلومات معقولة ولكنها خاطئة - في الواقع إلى تفاقم مشكلة المعلومات المضللة. على عكس محركات البحث التقليدية التي تشير على الأقل إلى مصادرها، تقدم روبوتات المحادثة إجابات خاطئة بيقين مطلق، مما يجعل من الصعب على المستخدمين العاديين معرفة ما هو صحيح.

الخطوة التالية: الفيديو والوسائط التي تم إنشاؤها بواسطة الذكاء الاصطناعي

لا يقتصر الأمر على الأخطاء النصية للذكاء الاصطناعي التي تسبب المتاعب. تمتلئ منصات الفيديو مثل TikTok الآن بمقاطع تم إنشاؤها بواسطة الذكاء الاصطناعي - مثل «جندي الحرس الوطني بوب» المزيف الشهير - الذي ينشر الروايات التحريضية ويجمع ملايين المشاهدات قبل أن يتم فضحه. وحتى بعد التحقق من صحة هذا المحتوى وإزالته، لا تزال الشكوك قائمة: فالعديد من المستخدمين مقتنعون الآن بأن عمليات الإزالة الحقيقية هي في الواقع تغطية حكومية أو إعلامية، مما يزيد من حدة السخرية وعدم الثقة.

تكمن المشكلة الأساسية في أن النظم البيئية للمعلومات المدعومة بالذكاء الاصطناعي تتجاوز الفلاتر التقليدية من أجل الدقة. نظرًا لأن المنصات تقلل من حجم فرق الإشراف البشري والتحقق من الحقائق، وبما أن شبكات التواصل الاجتماعي مثل X (Twitter سابقًا) تكافئ المحتوى المثير، فمن السهل معرفة سبب فقدان الحقيقة في كثير من الأحيان.

لماذا لا يزال محو الأمية الإعلامية الأفضل غير كافٍ

لاحظ Feiger و Schiffer أنه حتى المستخدمين ذوي النوايا الحسنة الذين يبحثون عن الحقيقة يمكن أن يفوقهم خداع الذكاء الاصطناعي سريع التطور. إذا كانت دوامة المعلومات المضللة خلال احتجاجات جورج فلويد في عام 2020 سيئة، فإن بيئة اليوم أسوأ - حيث يقوم «حراس البوابة» الخوارزميون الآن بالتوسط في معظم عمليات التحقق من الحقائق.

في الوقت نفسه، خفضت منصات مثل X القوى العاملة المعتدلة وخففت المعايير، مما أدى إلى سيل من المنشورات الفيروسية الكاذبة والصادمة. يتم تحفيز منشئي المحتوى الذين يسعون للحصول على مكافآت المنصة لإنتاج منشورات مثيرة للانقسام، حتى في الوقت الذي تكافح فيه الملصقات الأصلية للتمييز بين الحقيقة والضوضاء.

النتيجة: مع تزايد تشابك روبوتات المحادثة مع وسائل التواصل الاجتماعي والتحقق من الحقائق وأدوات البحث، يمكن لأخطائها أن تغذي حلقة التغذية الراجعة من المعلومات المضللة - مع عواقب واقعية على النقاش الديمقراطي وحركات الاحتجاج وثقة الجمهور.

الطريق إلى الأمام

في الوقت الذي تضاعف فيه شركات التكنولوجيا جهودها في مجال الذكاء الاصطناعي، فإن احتجاجات لوس أنجلوس تشكل تحذيرًا: بدون ضمانات قوية، قد تتحول «أدوات الحقيقة» الخاصة بنا إلى محركات للارتباك الجماعي. يكمن أفضل دفاع في الشك المستمر - من قبل المنصات ومنشئيها - والالتزام المتجدد بالدقة بدلاً من المشاركة.

المصدر:
https://www.wired.com/story/uncanny-valley-podcast-the-chatbot-disinfo-inflaming-the-la-protests/

رابط فيديو مضمن