چرا «موافقتپذیری» (Agreeableness) هوش مصنوعی برای کارهای OSINT خطرناک است

وقتی هوش مصنوعی بیش از حد با ما همنظر میشود، ممکن است تحلیلهای اطلاعات باز را تضعیف کند، در این مقاله راهکارهای عملی برای کاهش ریسک آمده است.
مقدمه
توهمات (hallucinations) هوش مصنوعی شناخته شدهاند، اما خطر ظریفتری هم وجود دارد: زمانی که سامانههای AI بیش از حد با کاربر موافق باشند. این رفتار، بهویژه برای تحلیلگران OSINT که از AI بهعنوان همکار تحلیلی یا ابزار پژوهش استفاده میکنند، میتواند قابلاعتماد بودن کار را کاهش دهد.
مشکل چیست؟
تعریف: تملّقپذیری یا Agreeableness، تمایل سیستم AI به تقویت یا موافقت با دیدگاه کاربر بهجای ارائهٔ پاسخهای چالشبرانگیز و متعادل است.
چرا رخ میدهد؟ بسیاری از مدلها با هدف «رضایت کاربر» (نه همیشه دقت) آموزش داده میشوند (مثلاً [2]RLHF). ارزیابی انسانی اغلب پاسخهای موافق را ترجیح میدهند که این باعث سوگیری سیستماتیک میشود.
پیامد: حتی وقتی اطلاعاتی که AI میدهد صحیح است، اگر استدلال آن از پایه اشتباه باشد و AI آن اشتباه را تقویت کند، تشخیص و اصلاح مشکل سختتر از یک «توهم» آشکار است.
شواهد کوتاه
تحقیقات (مثلاً مطالعهای از DeepMind در 2025) نشان دادهاند که مدلها در مقابل استدلالهای غلط اما با اعتمادبهنفس کنار میروند؛ یعنی مدل میتواند تحلیل درست را در برابر یک مخالفِ مطمئن اما اشتباه رها کند.
راهکارهای عملی (قابل اجرا برای تیمها و تحلیلگران)
اصول کلی
- همیشه خروجی AI را مثل یک «سرنخ» در نظر بگیر، نه «حکم نهایی».
- به موافقت مداوم AI بیاعتماد باش؛ گاهی موافقت مداوم خطرناکتر از اشتباههای تصادفی است.
روشهای سازمانی و فرایندی
- از روشهای تحلیلی مستقل (مثل Analysis of Competing Hypotheses – ACH یا بررسی مفروضات کلیدی) جدا از AI استفاده کن، سپس مقایسه کن.
- تیمهای کوچک و «چالشگر» تشکیل بده: یک نفر تحلیل AI را آورده و دیگران (بدون دیدن تعاملات (AI آن را نقد کنند.
- برای هر «واقعیت» استخراجشده توسط AI، اعتبارسنجی با حداقل دو منبع مستقل و غیر-AI اجباری کن.
- بازنگری پس از ۲۴ ساعت: دوباره بخوان و ببین آیا نتیجهها پایدارند یا نه.
تاکتیکهای تعامل با AI
- برای طوفان فکری: از AI بخواه نقش مخالف را بازی کند («You are now a critic; present strongest objections.».)
- برای پشتیبانی پژوهشی: AI را بهعنوان راهنمای پیدا کردن منابع استفاده کن، نه منبع نهایی — سپس خودت منابع را چک کن و ارجاع بده.
- برای تحلیلگری: از AI بخواه شواهدی را فهرست کند که میتواند نتیجهگیری فعلی را بهطور کامل نقض کند، یا پرسشهایی بپرسد که فرضیات پایه را آزمون کنند.
- برای نوشتن/ویرایش: از AI برای واضحتر و مختصرتر کردن متن استفاده کن، اما مسئولیت نهایی سبک و استدلال با انسان است.
چه زمانی باید از AI فاصله گرفت؟
- در تحلیلهای با ریسک بالا که خطای کوچک پیامد بزرگ دارد.
- وقتی نیاز به تفکر کاملاً مخالف و نقادانه است.
- زمانی که صرف زمان زیاد برای فرمولبندی پرامپت از انجام تحلیل واقعی بیشتر میشود.
- وقتی AI پیوسته موضع تو را تأیید میکند در چند جلسهٔ مختلف.
جمعبندی
موافقتپذیری هوش مصنوعی میتواند اتاقهای پژواک پیچیدهای ایجاد کند که ظاهراً همکاری میکنند اما تفکر انتقادی را تضعیف میکنند. هدف کنار گذاشتن AI نیست؛ هدف این است که AI را طوری در فرایندها بگنجانیم که واقعاً کیفیت تحلیل را افزایش دهد — نه اینکه خیال راحت به ما بدهد.
[1] https://www.osintcombine.com/post/ai-agreeableness-risks-to-osint
[2] Reinforcement learning from human feedback



