از جنگ واقعی تا جنگ رسانهای: دیپفیک چگونه درگیری هند و پاکستان را تشدید کرد؟

بعد از حمله شبهنظامیان به گردشگران در کشمیر، هند و پاکستان درگیر حملات شدند. در ۷ مه 2025، هند اعلام کرد که حملاتی موشکی به خاک پاکستان و کشمیر تحت اداره پاکستان انجام داده است. پاکستان – که هرگونه دخالت در حمله آوریل به گردشگران (که بیشترشان هندی بودند) را رد میکند – مدعی شد که پهپادها و جتهای جنگی هندی را سرنگون کرده است.
ادعاها و ضدادعاهایی درباره تداوم حملات و درگیریها از سوی دو طرف مطرح شدهاند. برخی از این ادعاها بلافاصله و بهصورت مستقل قابل راستیآزمایی نبودهاند؛ مسئلهای که فضایی را برای انتشار اطلاعات نادرست ایجاد کرده است.
برای نمونه، در تاریخ ۸ مه، یک ویدیوی دیپفیک از رئیسجمهور وقت ایالات متحده، دونالد ترامپ، که ظاهراً میگفت قصد «نابودی پاکستان» را دارد، منتشر شد؛ اما این ویدیو بهسرعت توسط راستیآزمایان هندی رد و بیاعتبار شد. بنابراین، تأثیر آن محدود بود.
اما درباره ویدیوی جعلی دیگری که توسط گروه تحقیقاتی Bellingcat و دستکم یک رسانه پاکستانی شناسایی شد، نمیتوان همین را گفت.
این ویدیو که دستکاری شده بود، در زمان انتشار گزارش، حدود ۷۰۰ هزار بار در شبکه اجتماعی ایکس به اشتراک گذاشته شده بود و ظاهراً نشان میداد که یک ژنرال ارتش پاکستان، احمد شریف چودری، اعلام میکند که پاکستان دو هواپیمای خود را از دست داده است.
یک تصویر ثابت از این ویدیو در پلتفرم ایکس منتشر شد که بهنادرستی ادعا میکرد ژنرال پاکستانی در حال تأیید سرنگونی دو جنگنده پاکستانی است.
سپس یک یادداشت اجتماعی (Community Note) به این ویدیو در X اضافه شد که توضیح میداد این ویدیو «توسط هوش مصنوعی ساخته شده و جعلی است.»
اما تا آن زمان، چندین رسانه معتبر هندی، از جمله NDTV، این ویدیو را منتشر کرده بودند. رسانههای دیگری که در گزارشهای خود به نقل از این ویدیوی دستکاریشده اشاره کرده بودند، شامل The Free Press Journal، The Statesman و Firstpost میشوند.
گروه Bellingcat موفق شد جعلی بودن ویدیو را ثابت کند، چرا که نسخه دیگری از همان کنفرانس خبری را از سال گذشته پیدا کرد. این ویدیو تأیید میکرد که صدا تغییر یافته و بهجای صوت اصلی، صدای دیگری روی تصویر سوار شده بود، و حرکت لبهای ژنرال با صدای جدید هماهنگ به نظر میرسید.
در هر دو ویدیو، جایگاه میکروفنها، موقعیت ژنرال نسبت به پرچمها، و حرکات او یکسان بودند. هر دو ویدیو همچنین صحنههایی از حضار را نشان میدهند که با هم مطابقت دارند.[1][2]

محمد زبیر، یکی از بنیانگذاران سازمان هندی راستیآزمایی Alt News به Bellingcat گفت که اطلاعات نادرست و گمراهکننده در شبکههای اجتماعی هند بسیار رایج هستند. او گفت که اگرچه برای راستیآزمایان حرفهای ممکن است ساده باشد تا دیپفیکی که از یک ویدیوی قدیمی با صدای جعلی استفاده کرده را شناسایی کنند، اما برای مردم عادی چنین چیزی بهسادگی ممکن نیست، چون ممکن است تحت تأثیر احساسات، ویدیو را بازنشر کنند.
او افزود:«این موضوع بسیار نگرانکننده است چون ویدیو واقعاً متقاعدکننده به نظر میرسد.»
Bellingcat با رسانههای NDTV، The Free Press Journal، The Statesman و Firstpost تماس گرفت تا جزئیات این ماجرا را با آنها در میان بگذارد، اما تا زمان انتشار، پاسخی دریافت نکرد.
در ادامه، NDTV و The Statesman گزارشهای خود را بدون ارائه هیچ توضیحی حذف کردند.
با این حال، کارشناسان هشدار میدهند که ویدیوهایی از این دست زنگ خطری جدی درباره خطرات فزاینده اطلاعات نادرست هستند.
ریچل موران، پژوهشگر ارشد در مرکز آگاهی عمومی دانشگاه واشینگتن، به Bellingcat گفت که سرعت ساخت و انتشار چنین ویدیوهایی، یک چالش جدید به وجود آورده است.
او افزود: «در دورههای بحران، محیط اطلاعاتی از پیش آشفته است، چرا که ما سعی داریم با سرعت، شایعات را از واقعیت جدا کنیم. حالا که ویدیوهای جعلی با کیفیت بالا نیز وارد این فضا شدهاند، روند تشخیص حقیقت، دشوارتر و مبهمتر شده و ممکن است حواس ما را از اطلاعات درست و مهم منحرف کنند.»
[1] https://www.facebook.com/NewsAlert.NAGujrat/videos/594345116615107



