
در سال گذشته، دو تفنگدار دریایی آمریکا در جریان مأموریتشان در منطقه اقیانوس آرام، برای نخستین بار از هوش مصنوعی مولد (شبیه ChatGPT) برای تحلیل اطلاعات و هشدار درباره تهدیدات استفاده کردند. این تجربه بخشی از فاز دوم استفاده پنتاگون از هوش مصنوعی است؛ فازی که تمرکز آن بر ابزارهای گفتگو محور و هوشمند برای تحلیل دادههای امنیتی و نظامی است. فاز اول این روند در سال ۲۰۱۷ با کاربردهایی مانند بینایی ماشین برای تحلیل تصاویر پهپادی آغاز شده بود.
در این مرحله جدید، پنتاگون به دنبال بهرهگیری از تواناییهای مدلهای زبانی بزرگ برای تحلیل دادههای پیچیده، شناسایی تهدیدها، و حتی پیشنهاد فهرست اهداف نظامی است. در حالی که مدافعان این فناوری ادعا میکنند استفاده از AI دقت تصمیمگیری را افزایش میدهد و تلفات غیرنظامی را کاهش میدهد، منتقدان از جمله متخصصان ایمنی هوش مصنوعی و سازمانهای حقوق بشری هشدار میدهند که این فناوری ممکن است در تحلیلهای حساس دچار خطا شود و تبعات جدی در پی داشته باشد.
سه پرسش اصلی در این زمینه مطرح است:
1. مرز واقعی حضور انسان در تصمیمگیریها ("Human in the loop") چیست؟
این عبارت به معنای نظارت انسانی بر خروجیهای AI است. اما وقتی مدلها از هزاران داده استفاده میکنند، انسانها عملاً نمیتوانند همه را بررسی کنند. بنابراین این راهکار همیشه نمیتواند جلوی اشتباهات خطرناک را بگیرد.
2. AI طبقهبندی اطلاعات را آسانتر یا پیچیدهتر میکند؟
مدلهای زبانی میتوانند با کنار هم گذاشتن اطلاعات غیرطبقهبندیشده، به نتیجهگیریهایی برسند که قبلاً محرمانه محسوب میشدند. این پدیده که «طبقهبندی با ترکیب» نام دارد، چالش جدیدی برای نظامهای طبقهبندی امنیتی آمریکا ایجاد کرده است.
3. AI تا چه حد باید در زنجیره تصمیمگیری نظامی بالا برود؟
از آنجا که AI ابتدا برای کارهای اداری و بعد برای تحلیل اطلاعات به کار گرفته شد، اکنون در آستانه ورود به تصمیمگیریهای سطح عملیاتی و حتی استراتژیک قرار دارد. برخی فرماندهان نظامی از این فناوری استقبال کردهاند، اما نگرانیهایی درباره سرعت بالا رفتن آن در سلسلهمراتب تصمیمگیری وجود دارد.
در نهایت، با توجه به روندهای جهانی و رقابتهای بینالمللی، احتمالاً شاهد گسترش بیشتر نقش هوش مصنوعی در ساختارهای نظامی خواهیم بود. اما این پیشرفت بدون پاسخ روشن به دغدغههای اخلاقی، امنیتی و فنی، میتواند به چالشهای خطرناکی منجر شود.
منبع خبر: technologyreview
پاسخ :