محققی که ادعا میکند دانش برنامهنویسی بالایی هم ندارد، ظاهراً با استفاده از هوش مصنوعی ChatGPT بدافزار روز صفری ساخته است که میتواند به استخراج داده از سیستم قربانیان بپردازد. او میگوید بدافزارش تقریباً غیرقابلشناسایی است و همین مسئله ماجرا را بسیار ترسناکتر میکند.
«ارون مولگرو»، محقق امنیتی شرکت Forcepoint در پستی در وبسایت این شرکت توضیح داده است که چگونه صرفاً با استفاده از هوش مصنوعی ChatGPT یک بدافزار روز صفر خطرناک ساخته است. او میگوید اگرچه OpenAI محدودیتهایی را روی هوش مصنوعی خود قرار داده است، اما همچنان میتوان این محدودیتها را دور زد و نرمافزارهای مخرب تولید کرد.
مولگرو بهصورت تکبهتک از ChatGPT خواست تا فانکشنها و کدهای این بدافزار را بنویسد و بعد با کامپایل این کدها، بدافزار خطرناکی ساخته است که نرمافزارهای آنتیویروس تقریباً نمیتوانند آن را شناسایی کنند.
مولگرو میگوید بدافزار او شبیه بدافزارهایی است که گروههای هکری وابسته به دولتها آنها را برای حملات پیچیده خود میسازند. بااینحال، این محقق امنیتی بهتنهایی و درواقع بدون نیاز به کدنویسی این برنامه را در عرض چند ساعت با هوش مصنوعی خلق کرده است. در حالت عادی ساخت چنین برنامههایی ممکن است هفتهها زمان ببرد.
بدافزار مولگرو خود را شبیه یک اپلیکیشن اسکرینسیور درمیآورد و هر بار با بالاآمدن ویندوز اجرا میشود. این برنامه سپس در میان فایلهای کاربر میگردد تا اطلاعات ارزشمند قربانی را بدزدد. نکته جالب توجه اینجاست که این بدافزار میتواند دادههای سرقتی را به تکههای کوچکتر بشکند و آنها را درون تصاویر کامپیوتر مخفی کند. سپس این تصاویر به پوشهای در سرویس گوگل درایو آپلود میشوند تا امکان شناسایی آنها وجود نداشته باشد.
مولگرو میگوید زمانی که بدافزار خود را در وبسایت VirusTotal آزمایش کرده است، از میان 69 آنتیویروس فقط 5 نرمافزار توانستهاند آن را شناسایی کنند. او بعداً نسخه دیگری از همین برنامه را هم به VirusTotal داده و این بار هیچکدام از آنتیویروسها نتوانستند آن را شناسایی کنند.
بدافزاری که مولگرو ساخته است، صرفاً یک نمونه آزمایشی بوده و قرار نیست در دسترس عموم قرار بگیرد. او با این پروژه قصد داشته است که نشان بدهد تدابیر حفاظتی ChatGPT تا چه اندازه میتواند ضعیف باشد و قابلیتهای آن چگونه توسط افراد خرابکار مورد سوءاستفاده قرار بگیرد.