تهدید جدید و در حال ظهور «بلک مامبا»، بهره‌گیری از هوش مصنوعی برای تولید بدافزار

BlackMamba

«بلک مامبا» (BlackMamba) نوعی مار آفریقایی سمی و خطرناک است، از خانواده (Elapidae) که در صحرا‌های جنوبی این قاره زندگی‌ می‌کند. اما حالا شرکت امنیتی «هیاس» (HYAS) نام مامبای سیاه را برای اشاره به یک تهدید نوظهور در عرصه هوش مصنوعی بکار برده است. یعنی استفاده از هوش مصنوعی، برای تولید بدافزارهای مخرب و عبور از موانع امنیتی.

زمان زیادی نگذشته که شرکت اوپن‌ ای‌آی (OpenAI) از جدیدترین مدل زبانی خود (Language Model)، بنام چت جی پی تی (ChatGPT) پرده برداشته است. یک «چت‌بات» (Chatbot) مبتنی بر هوش مصنوعی، که قادر است پیچیده‌ترین مباحث فنی و علمی را درک، و حتی برای مخاطب کد نویسی کرده و ابزار بسازد.

امروزه تا سطحی از این هوش مصنوعی برای عموم قابل استفاده است و مخاطبان می‌توانند با ایجاد یک حساب کاربری در وبسایت اوپن ای آی، به امکانات این چت‌بات دسترسی داشته باشند. همین سادگی دسترسی، فرصتی را در اختیار افراد سوء استفاده‌گر قرار داده تا با استفاده از توانمندی‌های هوش مصنوعی، مسیر تولید و توسعه بدافزارهای مخرب را کاهش داده و از توان ماشین برای کد نویسی بهره بگیرند. تا جایی که این ظرفیت، به پتانسیلی تبدیل شده برای تولید نسلی جدید و خطرناک از انواع ابزارها و تهدید‌های سایبری.

بدافزارهای چند وجهی (AI-generated, polymorphic malware) تولید شده توسط هوش مصنوعی، در بسیاری موارد حتی قادرند، از راه‌حل‌های امنیتی سنتی مانند سیستم‌های تشخیص و پاسخ نقطه پایانی (EDR)و سیستم‌های پیچیده چندلایه عبور کرده و آنها را بی مصرف‌کنند. وظیفه سیستم امنیتی تشخیص و پاسخ نقطه پایانی (Endpoint detection and response) جمع‌آوری داده‌ها از نقاط پایانی سیستم و شبکه، برای شناسایی الگوهای تهدید، تجزیه، تحلیل و حذف یا مهار آنهاست.

اما این بدافزارهای چند وجهی رفتار این سیستم‌ها را شناسایی کرده و خود را به شکلی منعطف می‌کنند که بدون جلب توجه از موانع امنیتی عبور کنند.این موضوع وقتی تبدیل به یک بحران می‌شود که هوش مصنوعی در رس یک حمله سایبری قرار گرفته و مانند موجودی هوشمند، حمله را هدایت کند.

محققان شرکت امنیتی «هیاس» (HYAS) در یک آزمایش مبتی بر هوش مصنوعی، با استفاده از یک مدل زبانی بزرگ و امکانات کتابخانه زبان پایتون (Auto-py-to-exe) تلاش کردند تا عملکرد چند بد افزار جاسوسی ذخیره کننده کید‌های فشرده شده صفحه کلید «کی‌لاگر» (keylogger) را با یکدیگر ترکیب کنند.

آنها بدافزار چند وجهی تولید شده با هوش مصنوعی را «مامبای سیاه» (BlackMamba) نامیده و با حذف کانال فرمان و کنترل (C2)، آن را طوری طراحی کردند که بدون نیاز به هیچ اعمال دستوری، و تنها با تکیه بر هوش مصنوعی بتواند خود را مدیریت کرده و از موانع امنیتی عبور کند. نتیجه این بود که مامبای سیاه بارها توانست از موانع امنیتی (EDR)عبور کرده و به صورت ناشناس در محیط هدف باقی بماند.

هوش مصنوعی (Artificial Intelligence) بخشی از علم کامپویتر است که در آن تلاش می شود، با استفاده از ظرفیت‌های کامپویتر، نسخه‌ای از هوش انسانی تولید شده و بخشی از امور که معمولا به توانمندی و درک انسان نیاز است را انجام دهد. ایده هوش مصنوعی از سال‌های ابتدایی جنگ جهانی دوم مطرح و تابه امروز توسعه یافته است.

یادگیری ماشین (Machine Learning) نیز یکی از زیرمجموعه‌های هوش مصنوعی است. یعنی ارائه حجمی داده‌ها به کامپیوتر، برای تفکیک و برچسب‌گذاری و استفاده از آن در آینده. شبکه عصبی مصنوعی (Artificial neural network) نیز یکی از اصلی‌ترین مولفه‌های یادگیری ماشین است که در هوش مصنوعی امروزی از آن به کرات استفاده می شود. دانشمندان با الهام‌گرفتن از شبکه عصبی مغز انسان، سه لایه از سلول‌های عصبی مصنوعی را برای پردازش اطلاعات و بیش‌بینی پاسخ‌های خروجی از سامانه‌های پیچیده تولید کردند، و از آن برای درک عمیق تر ماشین بهره می‌گیرند. چت جی پی تی (ChatGPT) نیز با استفاده از همین نورون‌های عصبی مصنوعی به درک محیط پرداخته و پاسخ های خود را به کاربران ارائه می‌دهد.

امروزه مشکل هوش مصنوعی مانند هر پدیده نوظهور دیگری است که اولا قانونی که انسان را مجاب به رعایت استفاده اخلاقی از هوش مصنوعی بکند وجود ندارد، دوم هوش مصنوعی هنوز قادر به نیت‌خوانی کاربران و استفاده اخلاقی آنها از محصول تولید شده توسط این ابزار مدرن نیست. همین موضوع نگرانی کارشاسان امنیتی را بیش از پیش کرده و این پرسش را مطرح کرده که اگر ماشین محدودیت‌ها اخلاقی و وجدان انسانی را درک نکند و بتواند مانند انسان فکر کند و تصمیم بگیرد و یا توصیه کند، آینده بشر امروزی به چه سمتی خواهد رفت؟