کارشناسان امنیت سایبری میگویند شواهد استفاده از ChatGPT توسط مجرمان حالا بهوضوح قابل مشاهده است. این افراد از این ابزار هوش مصنوعی برای طراحی حملات فیشینگ و بدافزارها استفاده میکنند. ولی همین مسئله میتواند شرکتهای تولیدکننده هوش مصنوعی را در معرض خطر قرار دهد، چون آنها احتمالاً مصونیت قضایی نخواهند داشت.
بهگزارش اینسایدر، چتبات ChatGPT از نوشتن مقاله گرفته تا تحلیل محتوا، کارهای گوناگونی انجام میدهد و میتواند سرعت عمل افراد را بالا ببرد. اما این مسئله درخصوص مجرمان سایبری هم صدق میکند. «سرگی شایکِویچ»، محقق شرکت امنیت سایبری Checkpoint میگوید شواهد استفاده از هوش مصنوعی برای تولید کد در حملات باجافزاری مشهود است.
شایکویچ و تیمش در انتهای سال 2021 شروع به مطالعه درباره پتانسیلهای هوش مصنوعی در کمک به جرایم سایبری کردند و دریافتند که مجرمان با کمک این ابزارها میتوانند ایمیل فیشینگ و کدهای مخرب تولید کنند. شایکویچ میگوید تیم او میخواست ببیند مجرمان واقعاً از هوش مصنوعی در حملات دنیای واقعی استفاده میکنند یا صرفاً بهشکل تئوری آنها را امتحان کردهاند.
از آنجایی که بهراحتی نمیتوان فهمید یک ایمیل فیشینگ با ChatGPT نوشته شده است یا خیر، محققان برای بررسیهای بیشتر به دارک وب مراجعه کردند. آنها در تاریخ 21 دسامبر 2022 متوجه شدند که مجرمان از این چتبات برای ساخت یک اسکریپت پایتون استفاده کردهاند که در حملات سایبری استفاده میشود. شایکویچ میگوید کد این اسکریپت اشتباهاتی هم داشت، اما بخش عمده آن درست بود.
حالا سوءاستفاده از ChatGPT، کارشناسان امنیت را نگران کرده است، چون این ابزارها میتوانند به مجرمانی که دانش فنی کمی دارند، کمک کنند تا حملات خود را پیادهسازی کنند. پیشتر شرکت Blackberry مدعی شده بود که طبق نظرسجی آنها 74 درصد از متخصصان امنیت نگران استفاده از این مدل هوش مصنوعی در جرایم سایبری هستند.
از سوی دیگر اما کمک ابزارهای هوش مصنوعی به مجرمان سایبری میتواند برای شرکتهای تولیدکننده آنها مشکلساز باشد. اکثر شرکتهای فناوری تحت حمایت ماده 230 قانون شایستگی ارتباطات از مسئولیتپذیری در قبال نشر محتوا در پلتفرمهای خود مصون هستند. اما درباره چتباتها، چون این پیشنهادها از جانب خود هوش مصنوعی ارائه میشود، شرکتهایی مثل OpenAI احتمالاً مسئول کمک به مجرمان خواهند بود.