مقالات ترجمه شده

پیوند ناگسستنی PAI و AI: ابعاد بار شناختی و الزامات تخصصی در OSINT


کلی ایهمه | ۰۳ سپتامبر ۲۰۲۵

هوش مصنوعی (AI) همه‌جا حضور دارد و حضورش بر عملیات اطلاعاتی مدرن تأثیر می‌گذارد. AI روی گوشی‌تان است، در مرورگرتان، درون اپلیکیشن‌ها و حتی ساعت هوشمندتان. برای بیشتر ما، AI  یک ابزار کمکی است که کارها را ساده و پژوهش‌ها را سریع‌تر می‌کند. اما برای متخصصان اوسینت، هوش مصنوعی و محتوای تولیدشده توسط آن می‌تواند از دو طریق کار را تحت تأثیر قرار دهد: بار شناختی و تکنیک‌های عملیاتی.

مقالات زیادی در مورد مزایا و خطرات AI، چالش‌های ادغام آن در حرفه‌های مختلف و نیاز فزاینده به سواد هوش مصنوعی در حوزه امنیت ملی نوشته شده است. با اینکه امکانات AI بی‌پایان به نظر می‌رسد، یکی از حوزه‌هایی که نیازمند توجه بیشتری است، تأثیر آن بر اطلاعات عمومی در دسترس (PAI) است. اکنون شاهد سیلی از تصاویر، ویدئوها و متن‌های تولیدشده توسط AI هستیم که دشمنان ما عامدانه به عنوان افراد، مکان‌ها و رویدادها منتشر می‌کنند تا اطلاعات را تحریف، جعل یا کاملاً اختراع کنند. البته همه محتوای AI با نیت فریب ساخته نمی‌شود؛ برخی محتوای تولیدی برای سرگرمی است، از خنده‌دار تا آزاردهنده. اما در عرصه اطلاعاتی، انتشار محتوای AI ــ چه از سوی دشمن و چه حتی از متحد ــ یک عامل خطر محسوب می‌شود. درحالی‌که تمرکز بر مزایای استفاده از AI برای تحلیل داده‌های کلان و کمک به تصمیم‌گیران است، حوزه‌ای که کمتر بررسی شده، تهدیدی است که این فناوری برای اطلاعات عمومی ایجاد می‌کند؛ همان منابعی که تحلیلگران OSINT به آن تکیه دارند.

OSINT  چیست؟

«اطلاعات منبع‌باز (OSINT) اطلاعاتی است که صرفاً از منابع عمومی یا تجاری در دسترس به‌دست می‌آید و به اولویت‌ها یا نیازهای اطلاعاتی خاص پاسخ می‌دهد.» منابع OSINT شامل شبکه‌های اجتماعی، اسناد و وب‌سایت‌های عمومی، رسانه‌های خبری و تصاویر و ویدئوهای اینترنتی می‌شوند. با رشد شبکه‌های اجتماعی،  PAI به ویژه برای سنجش افکار عمومی، رصد رویدادها، پیگیری روندها، شناخت الگوهای رفتاری و کسب بینش‌هایی که روش‌های سنتی اطلاعاتی را تکمیل می‌کنند، ارزشمند شده است.

اما با ظهور محتواهای تولیدشده توسط AI ــ به‌ویژه تصاویر فوتورئالیستی، پست‌های شبکه‌های اجتماعی و ویدئوها ــ فضای اطلاعات عمومی دچار ابهام شده و لایه‌های پیچیدگی و نویز بیشتری به PAI افزوده می‌شود. این امر بار شناختی تحلیلگران OSINT را بالا برده و تهیه و انتشار گزارش‌های اطلاعاتی معتبر را دشوارتر می‌کند.

محیط دیجیتال آلوده

نمونه‌های طولانی از یک فضای دیجیتال آلوده را می‌توان در جنگ غزه و اسرائیل یا عملیات داخلی متعدد مشاهده کرد. AI Slop» » محتوای خام و بی‌کیفیتی است که با هوش مصنوعی تولید شده و الگوریتم‌های پلتفرم‌هایی مانند یوتیوب، اینستاگرام و فیس‌بوک را پر کرده است. این پدیده، محتوای واقعی هنرمندان و سازندگان را به حاشیه می‌راند.

در تنش اخیر ایران و اسرائیل، شاهد سلاح‌سازی محتوای پیشرفته AI برای پخش اطلاعات نادرست بودیم. هر دو طرف ویدئوها و تصاویر ساختگی منتشر کردند:

  • ایران: تصویر هواپیمای ساقط‌شده که در واقع از یک بازی ویدئویی تغییر یافته بود، کلیپ‌های جعلی از حملات موشکی به تل‌آویو.
  • اسرائیل: ویدئوهای ساختگی از اعتراضات خیالی در تهران.

حتی برخی رسانه‌های آمریکایی نیز به ویدئوهای جعلی حمله بمب‌افکن B-2 استناد کردند. این محتوا میلیون‌ها بازدید گرفت و حتی منابع رسمی آن را بازنشر کردند. در مواردی هم پلتفرم‌های AI مدعی اصالت محتوا شدند، در حالی که دست‌کاری‌ها آشکار بود.

تأثیر بر فنون عملیاتی

حجم عظیم اطلاعات (میلیاردها ترابایت در هر دقیقه) به‌خودی‌خود یک کار طاقت­فرسا برای تحلیلگران OSINT است. ورود محتوای AI به این فضا ارزش PAI را کاهش می‌دهد و اعتماد به فرآیندها را تضعیف می‌کند. دو روش اصلی که AI در آن‌ها تحلیل PAI را مختل می‌کند:

  1. بیش‌بار و انکار (Overload & Deny): حجم انبوه محتوای جعلی، روند پردازش OSINT را سخت می‌کند.
  2. پنهان‌سازی و حواس‌پرتی (Conceal & Distract): محتوای جعلی در میان اطلاعات معتبر گم می‌شود. ابزارهای تشخیص نیز گاهی عکس‌های واقعی را جعلی می‌دانند.

درحالی‌که این اختلال‌ها ممکن است چرخه تصمیم‌گیری دشمن را به ضرر خودش مختل کند، اما برای ما هم هزینه‌زا و مخرب است.

تأثیر بر تحلیلگر

مهم‌تر از همه، اما کمتر مورد بحث، تأثیر AI بر بار شناختی تحلیلگران OSINT است. برخی تحقیقات نشان می‌دهند که AI باعث کاهش تفکر انتقادی می‌شود، برخی دیگر می‌گویند می‌تواند بار شناختی را با خودکارسازی وظایف کم‌ارزش کاهش دهد. هر دو واقعیت همزمان وجود دارند.

بار شناختی یعنی میزان تلاش ذهنی لازم برای انجام یک کار. فعالیت‌های دیجیتال مثل اعلان‌های مکرر، تغییر وظایف و چک کردن دستگاه‌ها بار شناختی را افزایش می‌دهند. وقتی محیط اطلاعاتی آلوده باشد، مه‌دود جنگ (Fog of War) غلیظ‌تر می‌شود و تصمیم‌گیری به تأخیر می‌افتد.

اضافه شدن محتوا و ابزارهای AI به معنای وظایف پیچیده‌تر، خطاهای بیشتر و اعتبارسنجی دشوارتر است. حتی ابزارهای تشخیص AI همیشه درست عمل نمی‌کنند. بدتر اینکه تحلیلگران ممکن است دچار «بار اضافی شکاکیت» شوند؛ یعنی حتی وقتی باید شک کنند، دیگر سوالی درباره واقعی یا جعلی بودن محتوا نپرسند.

توصیه‌ها

مقابله مستقیم با «AI Slop» فراتر از توان تحلیلگران OSINT است، اما اقداماتی برای کاهش بار شناختی و تقویت فنون عملیاتی وجود دارد:

  • آموزش و پرورش پایه‌ای در مورد مدل‌های AI و قابلیت‌های آن.
  • تمرین مهارت‌های تحلیلی برای راستی‌آزمایی تصاویر و ویدئوها.
  • تجربه کار با ابزارهای AI برای تقطیر PAI.
  • سیاست‌هایی برای استانداردسازی گزارش‌دهی و تفکیک محتوای دارای AI.

سازمان‌ها باید به سلامت و کارایی تحلیلگران توجه کنند: مدیریت شیفت برای خواب کافی، محدودسازی ابزارهای دیجیتال به حداقل لازم، و آموزش تمرکز ذهنی.

نتیجه‌گیری

دیگر نمی‌توان PAI را بدون در نظر گرفتن تأثیر محتوای تولیدشده توسط AI ارزیابی کرد. اگرچه َAI در عرصه‌های گوناگون به منزله عامل افزایش بهره‌وری عمل می‌کند، اما در حوزه  OSINT به تهدیدی واقعی برای فرآیندها و افراد تبدیل شده است.

دشمنان ما منتظر تحقیقات دانشگاهی نمی‌مانند و همین حالا از AI برای اشباع و فریب استفاده می‌کنند. ما باید سواد AI خود را افزایش دهیم و خود را در برابر «AI Slop» محافظت کنیم. تهدید اطلاعات غلط و گمراه‌کننده‌ تولیدشده توسط هوش مصنوعی، خطری برای همه است و مقابله با آن نیازمند ابزارها و فنون جدید برای تحلیلگران OSINT در خدمت امنیت ملی است.

[1] https://smallwarsjournal.com/2025/09/03/ai-impact-on-osint/

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا