«بلک مامبا» (BlackMamba) نوعی مار آفریقایی سمی و خطرناک است، از خانواده (Elapidae) که در صحراهای جنوبی این قاره زندگی میکند. اما حالا شرکت امنیتی «هیاس» (HYAS) نام مامبای سیاه را برای اشاره به یک تهدید نوظهور در عرصه هوش مصنوعی بکار برده است. یعنی استفاده از هوش مصنوعی، برای تولید بدافزارهای مخرب و عبور از موانع امنیتی.
زمان زیادی نگذشته که شرکت اوپن ایآی (OpenAI) از جدیدترین مدل زبانی خود (Language Model)، بنام چت جی پی تی (ChatGPT) پرده برداشته است. یک «چتبات» (Chatbot) مبتنی بر هوش مصنوعی، که قادر است پیچیدهترین مباحث فنی و علمی را درک، و حتی برای مخاطب کد نویسی کرده و ابزار بسازد.
امروزه تا سطحی از این هوش مصنوعی برای عموم قابل استفاده است و مخاطبان میتوانند با ایجاد یک حساب کاربری در وبسایت اوپن ای آی، به امکانات این چتبات دسترسی داشته باشند. همین سادگی دسترسی، فرصتی را در اختیار افراد سوء استفادهگر قرار داده تا با استفاده از توانمندیهای هوش مصنوعی، مسیر تولید و توسعه بدافزارهای مخرب را کاهش داده و از توان ماشین برای کد نویسی بهره بگیرند. تا جایی که این ظرفیت، به پتانسیلی تبدیل شده برای تولید نسلی جدید و خطرناک از انواع ابزارها و تهدیدهای سایبری.
بدافزارهای چند وجهی (AI-generated, polymorphic malware) تولید شده توسط هوش مصنوعی، در بسیاری موارد حتی قادرند، از راهحلهای امنیتی سنتی مانند سیستمهای تشخیص و پاسخ نقطه پایانی (EDR)و سیستمهای پیچیده چندلایه عبور کرده و آنها را بی مصرفکنند. وظیفه سیستم امنیتی تشخیص و پاسخ نقطه پایانی (Endpoint detection and response) جمعآوری دادهها از نقاط پایانی سیستم و شبکه، برای شناسایی الگوهای تهدید، تجزیه، تحلیل و حذف یا مهار آنهاست.
اما این بدافزارهای چند وجهی رفتار این سیستمها را شناسایی کرده و خود را به شکلی منعطف میکنند که بدون جلب توجه از موانع امنیتی عبور کنند.این موضوع وقتی تبدیل به یک بحران میشود که هوش مصنوعی در رس یک حمله سایبری قرار گرفته و مانند موجودی هوشمند، حمله را هدایت کند.
محققان شرکت امنیتی «هیاس» (HYAS) در یک آزمایش مبتی بر هوش مصنوعی، با استفاده از یک مدل زبانی بزرگ و امکانات کتابخانه زبان پایتون (Auto-py-to-exe) تلاش کردند تا عملکرد چند بد افزار جاسوسی ذخیره کننده کیدهای فشرده شده صفحه کلید «کیلاگر» (keylogger) را با یکدیگر ترکیب کنند.
آنها بدافزار چند وجهی تولید شده با هوش مصنوعی را «مامبای سیاه» (BlackMamba) نامیده و با حذف کانال فرمان و کنترل (C2)، آن را طوری طراحی کردند که بدون نیاز به هیچ اعمال دستوری، و تنها با تکیه بر هوش مصنوعی بتواند خود را مدیریت کرده و از موانع امنیتی عبور کند. نتیجه این بود که مامبای سیاه بارها توانست از موانع امنیتی (EDR)عبور کرده و به صورت ناشناس در محیط هدف باقی بماند.
هوش مصنوعی (Artificial Intelligence) بخشی از علم کامپویتر است که در آن تلاش می شود، با استفاده از ظرفیتهای کامپویتر، نسخهای از هوش انسانی تولید شده و بخشی از امور که معمولا به توانمندی و درک انسان نیاز است را انجام دهد. ایده هوش مصنوعی از سالهای ابتدایی جنگ جهانی دوم مطرح و تابه امروز توسعه یافته است.
یادگیری ماشین (Machine Learning) نیز یکی از زیرمجموعههای هوش مصنوعی است. یعنی ارائه حجمی دادهها به کامپیوتر، برای تفکیک و برچسبگذاری و استفاده از آن در آینده. شبکه عصبی مصنوعی (Artificial neural network) نیز یکی از اصلیترین مولفههای یادگیری ماشین است که در هوش مصنوعی امروزی از آن به کرات استفاده می شود. دانشمندان با الهامگرفتن از شبکه عصبی مغز انسان، سه لایه از سلولهای عصبی مصنوعی را برای پردازش اطلاعات و بیشبینی پاسخهای خروجی از سامانههای پیچیده تولید کردند، و از آن برای درک عمیق تر ماشین بهره میگیرند. چت جی پی تی (ChatGPT) نیز با استفاده از همین نورونهای عصبی مصنوعی به درک محیط پرداخته و پاسخ های خود را به کاربران ارائه میدهد.
امروزه مشکل هوش مصنوعی مانند هر پدیده نوظهور دیگری است که اولا قانونی که انسان را مجاب به رعایت استفاده اخلاقی از هوش مصنوعی بکند وجود ندارد، دوم هوش مصنوعی هنوز قادر به نیتخوانی کاربران و استفاده اخلاقی آنها از محصول تولید شده توسط این ابزار مدرن نیست. همین موضوع نگرانی کارشاسان امنیتی را بیش از پیش کرده و این پرسش را مطرح کرده که اگر ماشین محدودیتها اخلاقی و وجدان انسانی را درک نکند و بتواند مانند انسان فکر کند و تصمیم بگیرد و یا توصیه کند، آینده بشر امروزی به چه سمتی خواهد رفت؟