پیوند ناگسستنی PAI و AI: ابعاد بار شناختی و الزامات تخصصی در OSINT

کلی ایهمه | ۰۳ سپتامبر ۲۰۲۵
هوش مصنوعی (AI) همهجا حضور دارد و حضورش بر عملیات اطلاعاتی مدرن تأثیر میگذارد. AI روی گوشیتان است، در مرورگرتان، درون اپلیکیشنها و حتی ساعت هوشمندتان. برای بیشتر ما، AI یک ابزار کمکی است که کارها را ساده و پژوهشها را سریعتر میکند. اما برای متخصصان اوسینت، هوش مصنوعی و محتوای تولیدشده توسط آن میتواند از دو طریق کار را تحت تأثیر قرار دهد: بار شناختی و تکنیکهای عملیاتی.
مقالات زیادی در مورد مزایا و خطرات AI، چالشهای ادغام آن در حرفههای مختلف و نیاز فزاینده به سواد هوش مصنوعی در حوزه امنیت ملی نوشته شده است. با اینکه امکانات AI بیپایان به نظر میرسد، یکی از حوزههایی که نیازمند توجه بیشتری است، تأثیر آن بر اطلاعات عمومی در دسترس (PAI) است. اکنون شاهد سیلی از تصاویر، ویدئوها و متنهای تولیدشده توسط AI هستیم که دشمنان ما عامدانه به عنوان افراد، مکانها و رویدادها منتشر میکنند تا اطلاعات را تحریف، جعل یا کاملاً اختراع کنند. البته همه محتوای AI با نیت فریب ساخته نمیشود؛ برخی محتوای تولیدی برای سرگرمی است، از خندهدار تا آزاردهنده. اما در عرصه اطلاعاتی، انتشار محتوای AI ــ چه از سوی دشمن و چه حتی از متحد ــ یک عامل خطر محسوب میشود. درحالیکه تمرکز بر مزایای استفاده از AI برای تحلیل دادههای کلان و کمک به تصمیمگیران است، حوزهای که کمتر بررسی شده، تهدیدی است که این فناوری برای اطلاعات عمومی ایجاد میکند؛ همان منابعی که تحلیلگران OSINT به آن تکیه دارند.
OSINT چیست؟
«اطلاعات منبعباز (OSINT) اطلاعاتی است که صرفاً از منابع عمومی یا تجاری در دسترس بهدست میآید و به اولویتها یا نیازهای اطلاعاتی خاص پاسخ میدهد.» منابع OSINT شامل شبکههای اجتماعی، اسناد و وبسایتهای عمومی، رسانههای خبری و تصاویر و ویدئوهای اینترنتی میشوند. با رشد شبکههای اجتماعی، PAI به ویژه برای سنجش افکار عمومی، رصد رویدادها، پیگیری روندها، شناخت الگوهای رفتاری و کسب بینشهایی که روشهای سنتی اطلاعاتی را تکمیل میکنند، ارزشمند شده است.
اما با ظهور محتواهای تولیدشده توسط AI ــ بهویژه تصاویر فوتورئالیستی، پستهای شبکههای اجتماعی و ویدئوها ــ فضای اطلاعات عمومی دچار ابهام شده و لایههای پیچیدگی و نویز بیشتری به PAI افزوده میشود. این امر بار شناختی تحلیلگران OSINT را بالا برده و تهیه و انتشار گزارشهای اطلاعاتی معتبر را دشوارتر میکند.
محیط دیجیتال آلوده
نمونههای طولانی از یک فضای دیجیتال آلوده را میتوان در جنگ غزه و اسرائیل یا عملیات داخلی متعدد مشاهده کرد. AI Slop» » محتوای خام و بیکیفیتی است که با هوش مصنوعی تولید شده و الگوریتمهای پلتفرمهایی مانند یوتیوب، اینستاگرام و فیسبوک را پر کرده است. این پدیده، محتوای واقعی هنرمندان و سازندگان را به حاشیه میراند.
در تنش اخیر ایران و اسرائیل، شاهد سلاحسازی محتوای پیشرفته AI برای پخش اطلاعات نادرست بودیم. هر دو طرف ویدئوها و تصاویر ساختگی منتشر کردند:
- ایران: تصویر هواپیمای ساقطشده که در واقع از یک بازی ویدئویی تغییر یافته بود، کلیپهای جعلی از حملات موشکی به تلآویو.
- اسرائیل: ویدئوهای ساختگی از اعتراضات خیالی در تهران.
حتی برخی رسانههای آمریکایی نیز به ویدئوهای جعلی حمله بمبافکن B-2 استناد کردند. این محتوا میلیونها بازدید گرفت و حتی منابع رسمی آن را بازنشر کردند. در مواردی هم پلتفرمهای AI مدعی اصالت محتوا شدند، در حالی که دستکاریها آشکار بود.
تأثیر بر فنون عملیاتی
حجم عظیم اطلاعات (میلیاردها ترابایت در هر دقیقه) بهخودیخود یک کار طاقتفرسا برای تحلیلگران OSINT است. ورود محتوای AI به این فضا ارزش PAI را کاهش میدهد و اعتماد به فرآیندها را تضعیف میکند. دو روش اصلی که AI در آنها تحلیل PAI را مختل میکند:
- بیشبار و انکار (Overload & Deny): حجم انبوه محتوای جعلی، روند پردازش OSINT را سخت میکند.
- پنهانسازی و حواسپرتی (Conceal & Distract): محتوای جعلی در میان اطلاعات معتبر گم میشود. ابزارهای تشخیص نیز گاهی عکسهای واقعی را جعلی میدانند.
درحالیکه این اختلالها ممکن است چرخه تصمیمگیری دشمن را به ضرر خودش مختل کند، اما برای ما هم هزینهزا و مخرب است.
تأثیر بر تحلیلگر
مهمتر از همه، اما کمتر مورد بحث، تأثیر AI بر بار شناختی تحلیلگران OSINT است. برخی تحقیقات نشان میدهند که AI باعث کاهش تفکر انتقادی میشود، برخی دیگر میگویند میتواند بار شناختی را با خودکارسازی وظایف کمارزش کاهش دهد. هر دو واقعیت همزمان وجود دارند.
بار شناختی یعنی میزان تلاش ذهنی لازم برای انجام یک کار. فعالیتهای دیجیتال مثل اعلانهای مکرر، تغییر وظایف و چک کردن دستگاهها بار شناختی را افزایش میدهند. وقتی محیط اطلاعاتی آلوده باشد، مهدود جنگ (Fog of War) غلیظتر میشود و تصمیمگیری به تأخیر میافتد.
اضافه شدن محتوا و ابزارهای AI به معنای وظایف پیچیدهتر، خطاهای بیشتر و اعتبارسنجی دشوارتر است. حتی ابزارهای تشخیص AI همیشه درست عمل نمیکنند. بدتر اینکه تحلیلگران ممکن است دچار «بار اضافی شکاکیت» شوند؛ یعنی حتی وقتی باید شک کنند، دیگر سوالی درباره واقعی یا جعلی بودن محتوا نپرسند.
توصیهها
مقابله مستقیم با «AI Slop» فراتر از توان تحلیلگران OSINT است، اما اقداماتی برای کاهش بار شناختی و تقویت فنون عملیاتی وجود دارد:
- آموزش و پرورش پایهای در مورد مدلهای AI و قابلیتهای آن.
- تمرین مهارتهای تحلیلی برای راستیآزمایی تصاویر و ویدئوها.
- تجربه کار با ابزارهای AI برای تقطیر PAI.
- سیاستهایی برای استانداردسازی گزارشدهی و تفکیک محتوای دارای AI.
سازمانها باید به سلامت و کارایی تحلیلگران توجه کنند: مدیریت شیفت برای خواب کافی، محدودسازی ابزارهای دیجیتال به حداقل لازم، و آموزش تمرکز ذهنی.
نتیجهگیری
دیگر نمیتوان PAI را بدون در نظر گرفتن تأثیر محتوای تولیدشده توسط AI ارزیابی کرد. اگرچه َAI در عرصههای گوناگون به منزله عامل افزایش بهرهوری عمل میکند، اما در حوزه OSINT به تهدیدی واقعی برای فرآیندها و افراد تبدیل شده است.
دشمنان ما منتظر تحقیقات دانشگاهی نمیمانند و همین حالا از AI برای اشباع و فریب استفاده میکنند. ما باید سواد AI خود را افزایش دهیم و خود را در برابر «AI Slop» محافظت کنیم. تهدید اطلاعات غلط و گمراهکننده تولیدشده توسط هوش مصنوعی، خطری برای همه است و مقابله با آن نیازمند ابزارها و فنون جدید برای تحلیلگران OSINT در خدمت امنیت ملی است.
[1] https://smallwarsjournal.com/2025/09/03/ai-impact-on-osint/



