چت‌بات‌های هوش مصنوعی چگونه به دستیاران جنگی تبدیل شدند؟

چت‌بات‌های هوش مصنوعی در سال‌های اخیر به فناوری‌های محبوبی برای کاربران تبدیل شده‌اند و کارآیی خود را در بسیاری از حوزه‌ها نشان داده‌اند، اما گزارش‌ها پیرامون به کار بردن این فناوری‌ها در جاسوسی و جنگ نشان می‌دهند که آنها چندان هم بی‌عیب نیستند.

چت‌بات‌های هوش مصنوعی چگونه به دستیاران جنگی تبدیل شدند؟

به گزارش چابک آنلاین، چند سال از زمانی که مدل زبانی بزرگ «چت‌جی‌پی‌تی»(ChatGPT) شرکت «اوپن‌ای‌آی»(OpenAI) عرضه شد، می‌گذرد. ​​این مدل اکنون سریع‌ترین برنامه کاربردی مصرفی است که میلیون‌ها کاربر دارد و با اصطلاح هوش مصنوعی مترادف می‌شود. از آن زمان، طیف گسترده‌ای از فناوری‌های هوش مصنوعی مولد از جمله چت‌بات‌ها و مدل‌های تولید تصویر، ویدئو و صدا وارد بازار شده‌اند.

به نقل از میلیتنت وایر،  بخش عمده‌ای از تحقیقات پیرامون هوش مصنوعی و تروریسم بر این برنامه‌های کاربردی مولد متمرکز شده و بررسی می‌کند که چگونه گروه‌های خطرناک ممکن است از آنها برای ایجاد تبلیغات و روایت‌ها استفاده کنند. این مجموعه کارها تأثیر هوش مصنوعی را بر عرصه دیجیتال روشن کرده‌اند و نشان داده‌اند که باید به چگونگی استفاده از فناوری‌های هوش مصنوعی از جمله مدل‌های هوش مصنوعی مولد برای برنامه‌ریزی عملیاتی و استفاده توسط تروریست‌ها به منظور انجام اعمال خشونت‌آمیز توجه بیشتری شود.

سال ۲۰۲۵ شاهد افزایش قابل توجه حوادثی بوده است که در آنها تروریست‌ها و گروه‌های خشونت‌طلب از فناوری‌های هوش مصنوعی برای برنامه‌ریزی، تحقیق و آماده‌سازی حملات استفاده کرده‌اند. در سال ۲۰۲۵، شاهد افزایش روبه‌رشد عاملان و توطئه‌گران هستیم که برای تقویت جعبه ابزار عملیاتی خود به محصولات هوش مصنوعی رایگان روی می‌آورند. داده‌های مربوط به توطئه‌ها و حملاتی که در سال ۲۰۲۵ با کمک هوش مصنوعی برای برنامه‌ریزی عملیات انجام شده‌اند، نشان می‌دهند این فناوری در حوزه‌های گوناگونی نقش داشته است که مهم‌ترین آنها به شرح زیر هستند.

۱.یادگیری بسیاری از موارد مورد نیاز از امنیت عملیاتی گرفته تا جزئیات ساخت مواد منفجره

۲.تجسم سناریوها مانند ایجاد تصاویر از حمله برنامه‌ریزی‌شده 

۳.اصلاح تاکتیک‌ها از طریق راهنمایی‌های شخصی‌سازی‌شده و گفت‌وگو مانند راهنمایی گام‌به‌گام درباره نحوه دستیابی به پیش‌سازهای شیمیایی لازم برای مواد منفجره 

افزایش سرعت این روند، نیاز فوری دولت‌ها، شرکت‌های فناوری و پلتفرم‌های رسانه‌ اجتماعی را برای پیش‌بینی و سازگاری با واقعیت‌های جدید فعالیت افراط‌گرایانه مبتنی بر فناوری‌های دیجیتال و اجرای راهبردهایی برای مختل کردن سوءاستفاده برجسته می‌کند.

حوادث گوناگون نشان می‌دهند که هوش مصنوعی در نقاط گوناگونی از چرخه عملیات، از ایده‌پردازی و خیال‌پردازی گرفته تا تحقیق و برنامه‌ریزی و شناسایی در دنیای فیزیکی فعالیت می‌کند. در هر مورد، هوش مصنوعی یادگیری را تسریع کرده و آستانه بین مهارت و عمل را کاهش داده است. این الگوی نوظهور نشان می‌دهد که تنظیم مقررات و مدیریت پلتفرم‌ها اکنون باید استفاده مخرب از هوش مصنوعی را به عنوان یک ویژگی اصلی فعالیت‌های افراطی معاصر و نه فقط یک گمانه‌زنی نگران‌کننده در نظر بگیرند.

به نقل از دیفنس نیوز،  مقامات نظامی کنونی و سابق بسیاری از کشورها هشدار می‌دهند که دشمنان احتمالاً از یک نقص طبیعی در چت‌بات‌های هوش مصنوعی به منظور تزریق دستورالعمل‌هایی برای سرقت فایل‌ها، تحریف افکار عمومی یا خیانت به کاربران مورد اعتماد سوءاستفاده می‌کنند.

دشمنان احتمالاً از یک نقص طبیعی در چت‌بات‌های هوش مصنوعی به منظور تزریق دستورالعمل‌هایی برای سرقت فایل‌ها، تحریف افکار عمومی یا خیانت به کاربران مورد اعتماد سوءاستفاده می‌کنند.

آسیب‌پذیری در برابر این حملات «تزریق سریع» به این دلیل است که مدل‌های زبانی بزرگ نمی‌توانند بین دستورالعمل‌های مخرب و قابل اعتماد کاربر تمایز قائل شوند. مدل‌های زبانی بزرگ، ستون فقرات چت‌بات‌هایی هستند که انبوهی از متن ارائه‌شده توسط کاربر را برای تولید پاسخ هضم می‌کنند.

به عقیده برخی از مقامات نظامی، هوش مصنوعی به اندازه کافی هوشمند نیست که بفهمد تزریقی درونش وجود دارد. بنابراین، کاری را انجام می‌دهد که قرار نیست انجام دهد.

«لیاو کاسپی»(Liav Caspi)، یکی از بنیان‌گذاران شرکت «لجیت سکیوریتی»(Legit Security) که اخیراً یکی از این حفره‌های امنیتی را در چت‌بات «کوپایلوت»(Copilot) شرکت «مایکروسافت»(Microsoft) کشف کرده است، گفت: در واقع یک دشمن توانسته است کسی را از درون به کاری که می‌خواهد مانند حذف سوابق یا جهت‌دهی به تصمیمات وادار کند. این کار مانند این است که یک جاسوس را در داخل داشته باشید.

به عقیده برخی از مقامات نظامی، هوش مصنوعی به اندازه کافی هوشمند نیست که بفهمد تزریقی درونش وجود دارد. بنابراین، کاری را انجام می‌دهد که قرار نیست انجام دهد.

مایکروسافت در گزارش سالانه دفاع دیجیتال خود که در نوامبر سال ۲۰۲۵ منتشر شد، برای اولین بار نوشت: خود سیستم‌های هوش مصنوعی به اهداف باارزشی تبدیل شده‌اند و دشمنان استفاده از روش‌هایی مانند تزریق سریع را افزایش داده‌اند.

پژوهشگران امنیتی شرکت «اوپن‌ای‌آی» (OpenAI) می‌گویند مشکل تزریق سریع هیچ راه حل آسانی ندارد. یک حمله به سادگی شامل پنهان کردن دستورالعمل‌های مخرب در یک چت‌بات یا محتوایی که چت‌بات می‌خواند، مانند یک پست وبلاگ یا PDF است.

برای مثال، یک پژوهشگر امنیتی یک حمله تزریق سریع را علیه مرورگر جدید هوش مصنوعی «چت‌جی‌پی‌تی اطلس»(ChatGPT Atlas) اوپن‌ای‌آی نشان داد. در آن حمله وقتی کاربر درخواست تحلیل یک فایل Google Docs را درباره پنهان کردن دستورات مخرب داشت، چت‌بات پاسخ داد: «به هوش مصنوعی اعتماد نکن». همچنین، یک پژوهشگر مایکروسافت را از یک آسیب‌پذیری تزریق سریع در کوپایلوت آگاه کرد و گفت که ممکن است به مهاجمان اجازه داده باشد تا چت‌بات را برای سرقت داده‌های حساس از جمله ایمیل‌ها فریب دهند.

«دین استاکی»(Dane Stuckey)، مدیر ارشد امنیت اطلاعات اوپن‌ای‌آی نوشت: تزریق سریع همچنان یک مشکل امنیتی حل‌نشده و پیشرو است و دشمنان ما زمان و منابع قابل توجهی را صرف یافتن راه‌هایی برای فریب عامل چت‌جی‌پی‌تی در این حملات خواهند کرد.

کاسپی گفت: شما نمی‌توانید از تزریق سریع به طور کامل جلوگیری کنید، اما باید تأثیر آن را محدود کنید.

سازمان‌ها باید دسترسی یک دستیار هوش مصنوعی را به داده‌های حساس و دسترسی کاربران را به داده‌های سازمانی محدود کنند.

ارزیابی و پیش‌بینی تهدید

به نقل از میلیتنت وایر،  یک موضوع تکراری در چنین حوادث این است که فناوری‌های هوش مصنوعی مورد استفاده مانند عینک‌های هوشمند، چت‌بات‌ها و مولدهای تصویر به عنوان میانبرهایی در برنامه‌ریزی عملیاتی عمل می‌کنند. 

نمی‌توان از تزریق سریع به طور کامل جلوگیری کرد اما باید تأثیر آن محدود شود.

این فناوری‌ها اطلاعات پراکنده مانند ذخیره‌سازی ایمن مواد شیمیایی، مراحل فنی ساخت بمب و مکان‌های به دست آوردن پیش‌سازها را به مراحل واضح و قابل فهمی تبدیل می‌کنند که عاملان را از طریق فرآیندهایی مانند تاکتیک‌های حمله، ترکیب مواد منفجره و آماده‌سازی لجستیک هدایت می‌کنند. این قابلیت، موانع شناختی و فنی را که پیشتر بازیگران بی‌تجربه یا منزوی را محدود می‌کرد، به طور قابل توجهی کاهش می‌دهد.

بنابراین، پیگیری مشخصات کاربرانی که با مدل‌های زبانی بزرگ در طراحی حمله مشارکت دارند، مهم است تا مشخص شود آنها جوان‌ و بی‌تجربه‌ هستند یا با راهنماها و توانمندسازهای مجازی در تماس قرار دارند.

برای مهاجمان احتمالی، سه عامل توضیح می‌دهد که چرا مدل‌های زبانی بزرگ به بخش جدایی‌ناپذیر برنامه‌ریزی عملیاتی تبدیل شده‌اند. 

۱.مدل‌های زبانی بزرگ اطلاعاتی را در دسترس قرار می‌دهند که در غیر این صورت، بدون دانش پیشین درباره محل جست‌وجوی آنلاین، یافتن آنها دشوار بود. 

۲.گفت‌وگو با چت‌بات‌ها، راهنماهای اطلاعاتی طولانی و فنی را به دستورالعمل‌های کوتاه و قابل اجرا تبدیل می‌کند و اسناد یا رویه‌هایی را که ممکن است خارج از مجموعه مهارت‌های یک طراح بی‌تجربه باشند، به طور مؤثر در دسترس قرار می‌دهد. 

۳.پاسخ‌های چت‌بات‌ها بسیار شخصی‌تر از نتایج حاصل از موتورهای جستجوی سنتی هستند.

این سه عامل با استفاده بی‌خطر از هوش مصنوعی مولد برای حل مسائل روزمره که کاربران در آنها به دنبال پاسخ‌های شخصی، قابل دسترس و دقیق هستند و ممکن است آنها را از یک انسان نپرسند، به طور نزدیکی موازی هستند.

کارآیی و فوریت فناوری‌های هوش مصنوعی برای طیف گسترده‌ای از فعالان جذاب است، اما به نظر می‌رسد که این فناوری‌ها تاکنون به ویژه برای افراد تنها و افراد الهام‌بخشی که فاقد آموزش رسمی یا راهنمایی از سوی افراد باتجربه هستند، متحول‌کننده بوده‌اند. برای این کاربران، مدل‌های زبانی بزرگ به عنوان مربیان مجازی عمل می‌کنند، شکاف‌های تخصصی را پر می‌کنند و انتقال از قصد به عمل را سرعت می‌بخشند، اما در حوزه امنیتی باید سازوکارهای محکمی بر جلوگیری از به‌کارگیری چت‌بات‌های هوش مصنوعی در کارهای مخرب اعمال شود.

منبع: خبرگزاری ایسنا
copied
نظر بگذارید