محققی که ادعا می کند سطح بالایی از دانش برنامه نویسی ندارد، ظاهراً از هوش مصنوعی ChatGPT برای ایجاد بدافزار Ros Safari استفاده کرده است که می تواند داده ها را از سیستم قربانیان استخراج کند. او میگوید بدافزار او تقریباً غیرقابل شناسایی است، که آن را ترسناکتر میکند.
“Eron Mulgrew” محقق امنیتی در Forcepoint در پستی در وب سایت شرکت توضیح داد که چگونه به سادگی از هوش مصنوعی ChatGPT استفاده می شود. بدافزار روز صفر خطرناک ساخته شده است. او میگوید اگرچه OpenAI محدودیتهایی را برای هوش مصنوعی خود در نظر گرفته است، اما همچنان میتوان از آن محدودیتها عبور کرد و بدافزار ایجاد کرد.
مولگرو از ChatGPT خواست تا توابع و کدهای این بدافزار را یکی یکی بنویسد و سپس با کامپایل این کدها بدافزار خطرناکی ساخت که برنامه آنتی ویروس تقریباً غیرقابل تشخیص هستند.
تولید بدافزار با ChatGPT بسیار ساده تر شد
مولگرو میگوید بدافزار او شبیه بدافزارهایی است که گروههای هک مرتبط با دولت برای حملات پیچیده خود ایجاد میکنند. با این حال، این محقق امنیتی این برنامه را خودش بدون نیاز به نوشتن هیچ کدی توسعه داد در عرض چند ساعت ساخته شده با هوش مصنوعی به طور معمول، ساخت چنین برنامه هایی ممکن است هفته ها طول بکشد.
بدافزار Mulgrove شبیه یک برنامه است محافظ صفحه نمایش و هر بار که ویندوز شروع می شود اجرا می شود. سپس این برنامه فایل های کاربر را جستجو می کند تا اطلاعات ارزشمند قربانی را بدزدد. نکته جالب اینجاست که این بدافزار می تواند داده های دزدیده شده را به قطعات کوچکتر تقسیم کند و داخل عکسها کامپیوتر را مخفی کنید این تصاویر سپس در پوشه ای در سرویس Google Drive آپلود می شوند تا قابل شناسایی نباشند.
مولگرو می گوید که وقتی بدافزار خود را در وب سایت VirusTotal آزمایش کرد، از 69 برنامه آنتی ویروس، فقط 5 نرم افزار آنها توانسته اند او را شناسایی کنند. بعدا این بار هم نسخه دیگری از همین برنامه را به VirusTotal داد هیچ یک آنتی ویروس نتوانست آن را شناسایی کند.
بدافزار ایجاد شده توسط Mulgrove فقط یک نمونه آزمایشی است و قرار نیست برای عموم در دسترس باشد. او با این پروژه قصد داشت نشان دهد که تدابیر امنیتی ChatGPT چقدر می تواند ضعیف باشد و چگونه می توان از قابلیت های آن توسط افراد مخرب سوء استفاده کرد.
منبع: دیجیاتو