کمک گرفتن از هوش مصنوعی برای عملیات انتحاری

...

هفته گذشته، متیو لیولزبِرگر، سرباز فعال نیروی ویژه ارتش آمریکا (گرین برت)، یک تسلا سایبرتراک را در مقابل هتل ترامپ در لاس‌وگاس منفجر کرد. پلیس لاس‌وگاس اعلام کرد که او از هوش مصنوعی، به‌ویژه ChatGPT، برای برنامه‌ریزی این حادثه استفاده کرده است. کلانتر کوین مک‌ماهیل این اتفاق را اولین مورد استفاده از هوش مصنوعی برای طراحی چنین حمله‌ای در خاک آمریکا دانست و آن را "تغییردهنده بازی" توصیف کرد. شرکت OpenAI، توسعه‌دهنده ChatGPT، ضمن ابراز تأسف از این حادثه، اعلام کرد که مدل‌های این شرکت برای جلوگیری از ارائه اطلاعات مضر طراحی شده‌اند. در این مورد، ChatGPT صرفاً اطلاعات عمومی موجود در اینترنت را ارائه داده و هشدارهایی درباره اقدامات غیرقانونی داده است. این شرکت همچنین برای همکاری با مقامات جهت بررسی این حادثه اعلام آمادگی کرد.

 

عملیات انتحاری با هوش مصنوعی

 

حادثه با استفاده از یک بمب ساخته‌شده از فشفشه، مخازن گاز و سوخت کمپینگ در قسمت بار خودرو انجام شد. لیولزبِرگر از دستگاه کنترلی برای انفجار استفاده کرد و پیش از وقوع انفجار، خودکشی کرد. این انفجار منجر به مجروح شدن هفت نفر شد. به گفته مقامات، او در تلفن همراهش یک مانیفست شش‌صفحه‌ای به‌جا گذاشته که شامل توصیف‌های گرافیکی از تجربیات تلخ نظامی، مشکلات روانی، و نارضایتی‌های سیاسی و اجتماعی او بوده است. او در این نوشته‌ها اعلام کرده که نمی‌خواهد به دیگران آسیب برساند و هدفش از این اقدام بیشتر جنبه نمادین و عمومی داشته است. مقامات پلیس همچنین دو نامه دیگر از او پیدا کرده‌اند که در آن‌ها به مسائل سیاسی، درگیری‌های نظامی و مشکلات داخلی آمریکا اشاره شده است. اسپنسر ایوانز، مأمور ویژه FBI در لاس‌وگاس، این حادثه را یک تراژدی خودکشی از سوی یک کهنه‌سرباز مبتلا به اختلال استرس پس از سانحه (PTSD) و مشکلات روانی توصیف کرد.

 

عملیات انتحاری با هوش مصنوعی

 

در محل حادثه، پوکه‌های سه گلوله کالیبر 50 کشف شد که دو مورد از آن‌ها به دلیل شدت حرارت ناشی از انفجار سوخته بودند. مقامات ATF اعلام کردند که در خودروی او 60 پوند مواد انفجاری پیدا شده است. اگر این مواد به طور کامل منفجر می‌شدند، شدت حادثه می‌توانست بسیار بیشتر باشد. هنوز مشخص نیست که آیا او قصد داشته انفجار شدیدتری ایجاد کند یا صرفاً به خودکشی فکر می‌کرده است. کلانتر مک‌ماهیل اعلام کرد که هنوز نمی‌توان این حادثه را به‌طور قطعی به‌عنوان یک حمله تروریستی طبقه‌بندی کرد و تحقیقات همچنان ادامه دارد. او تأکید کرد که هیچ مظنون دیگری در این پرونده وجود ندارد. به گفته مقامات، این حادثه نگرانی‌های جدی درباره استفاده نادرست از فناوری‌های هوش مصنوعی را به وجود آورده است.

منبع خبر: edition.cnn

نظرات 0

wave

ارسال نظر

wave
برای ثبت نظر ابتدا وارد حساب کاربری خود شوید. ورود | ثبت نام

در آرتیجنس دنبال چی میگردی؟