
أشرطة قديمة وآراء خاطئة وصور مولَّدة بالذكاء الاصطناعي تغذي المعلومات المضللة حول احتجاجات Coolock
تصاعدت حالة التضليل الإعلامي المصاحب للاحتجاجات الأخيرة وعمليات الشغب في Coolock، حيث أعاد مستخدمون على منصات التواصل الاجتماعي نشر لقطات قديمة وصور من احتجاجات في دول أخرى، فضلاً عن صور تم توليدها بواسطة تقنيات الذكاء الاصطناعي، على أنها مشاهد حديثة مرتبطة بالأزمة الراهنة. وقد ساهم هذا المزج من المواد الحقيقية والمزورَة في نشر شائعات قدمت سرديات متعارضة حول حجم العنف وأسبابه وتبعاته.
قنوات التحقق من الأخبار والصحفيون المستقلون لاحظوا تكرار استخدام فيديوهات مأخوذة من أحداث سابقة أو من أماكن بعيدة تُعرض لتمثيل ما يحدث في Coolock، كما رُصدت صور مركبة ولقطات تبدو حقيقية لكنها نتجت عن مولدات صور بالذكاء الاصطناعي. وقلّل هذا الخلط من قدرة الجمهور على تمييز الحدث الفعلي عن المحتوى المفبرك، ما دفع بعض المستخدمين إلى ترويج معلومات مضللة حول ضحايا مزعومين أو عمليات اعتقال واسعة النطاق لم تحدث.
السلطات ومجموعات المجتمع المدني نبهت إلى المخاطر العملية لهذه الظاهرة. فـGarda وبعض المنظمات الإعلامية دعوا الجمهور إلى الاعتماد على القنوات الرسمية ووسائل الإعلام الموثوقة عند البحث عن معلومات حول الاحتجاجات، وحذروا من تداول مواد غير مؤكدة قد تؤدي إلى تفاقم التوترات أو تعطيل عمل خدمات الطوارئ. كما أن خبراء في الأمن الرقمي وFact-checking أشاروا إلى أن الخوارزميات على منصات التواصل تسرّع انتشار المحتوى المثير بغض النظر عن صحته، ما يتطلب جهداً أكبر من منصات التواصل لمواجهة المعلومات المضللة.
في ظل هذا الواقع، يوصي مختصون بفحص المصادر عبر أدوات مثل البحث العكسي عن الصور والتحقق من الطوابع الزمنية ومطابقة اللقطات مع تغطية إعلامية موثوقة قبل إعادة النشر. كما شدد قادة المجتمع المحليين على أهمية الحوار الهادئ والاعتماد على الوقائع المثبتة لتفادي تصاعد العنف. ومع استمرار التحقيق في أسباب الاحتجاجات وآثارها، يبقى التحقق من المعلومات ورفع الوعي الرقمي من أهم السبل للحد من الضرر الذي تسببه الأخبار الكاذبة والمحتوى المفبرك.
المصدر
The Journal ↗Old footage and incorrect hot takes fuelling misinformation around protests
تُرجم هذا المقال تلقائياً بواسطة الذكاء الاصطناعي.






