تواصل الهند حملتها الدعائية ضد باكستان، وهذه المرة باستخدام الذكاء الاصطناعي (AI) لنشر صور مزيفة عبر وسائل التواصل الاجتماعي تتعلق بحادثة پہلگام الأخيرة في كشمير المحتلة.
صور مزيفة تُعرض على أنها ضحايا
الصور المنتشرة تُظهر ما يُزعم أنه جثث ضحايا الهجوم، إلا أن جميعها مصنوعة باستخدام تقنيات الذكاء الاصطناعي وليست حقيقية. وقد تم ربط هذه الصور المزيفة بالحادثة في محاولة لتضليل الرأي العام.
التحقيق في الصور
قامت فرق التحقق من الحقائق بفحص هذه الصور باستخدام أدوات كشف محتوى الذكاء الاصطناعي، وأكدت معظم الأدوات بنسبة 99% أن هذه الصور مصطنعة وليست واقعية.
غياب الصور في التغطية الإعلامية
على الرغم من التغطية الإعلامية الواسعة للهجوم، إلا أنه لم يتم عرض أي من هذه الصور المزيفة في وسائل الإعلام الموثوقة، مما يعزز من فرضية كونها ملفقة. كما أن ملامح الوجوه غير الواضحة والملمس اللامع للجثث، بالإضافة إلى غياب أي أثر للدماء، كلها مؤشرات على أنها صور توليدية وليست حقيقية.
موجة جديدة من الصور بتاريخ 23 أبريل 2025
بتاريخ 23 أبريل 2025، ظهرت مجموعة جديدة من الصور المرتبطة بالهجوم، حيث وصلت إحدى المنشورات إلى أكثر من 26,100 مشاهدة. بعد تحليل هذه الصور أيضًا، ثبت أنها مزيفة وتم إنشاؤها بالذكاء الاصطناعي.
الحقيقة واضحة
تؤكد جميع الأدلة المتوفرة أن الصور المنتشرة على وسائل التواصل الاجتماعي بشأن هجوم پہلگام هي صور مفبركة باستخدام الذكاء الاصطناعي، ولا تمت للواقع بصلة. ولم تظهر هذه الصور في أي مصدر إعلامي رسمي أو موثوق.
استخدام الذكاء الاصطناعي في الحملات المعادية
تُستخدم هذه الصور من قِبل مستخدمين هنود على وسائل التواصل الاجتماعي في إطار حملة دعائية ممنهجة ضد باكستان، ما يُثير مخاوف من تصاعد استخدام تقنيات الذكاء الاصطناعي في الحروب الإعلامية والمعلومات المضللة.



