نسخه هک یا جیلبریک شده چتبات هوش مصنوعی ChatGPT با نام «GODMODE GPT» توسط یک هکر منتشر شده است. در حالی که OpenAI ادعا کرده که نسبت به سازنده این چتبات اقدام قانونی کرده است، GODMODE GPT ظاهراً میتواند تمام موانع محافظتی آن را از بین ببرد.
هکری که در ایکس خود را با نام «Pliny the Prompter» و بهعنوان یک «کلاه سفید» معرفی کرده است، امروز از GODMODE GPT رونمایی کرد. او در پست خود نوشت:
«این GPT سفارشی بسیار خاص دارای یک دستور جیلبریک داخلی است که اکثر موانع محافظ را دور میزند و یک ChatGPT آزادشده را ارائه میکند تا همه بتوانند هوش مصنوعی را همانطور که همیشه قرار بوده تجربه کنند: رایگان.
لطفا مسئولانه از آن استفاده کنید و لذت ببرید!»
این هکر همچنین اسکرینشاتهایی را به اشتراک گذاشته است که ادعا میکند نشان میدهند ChatGPT از موانع مخافظتی OpenAI عبور کرده است. در یکی از این تصاویر، هوش مصنوعی Godmode «راهنمای گامبهگام» نحوه «ساخت ناپالم با وسایل خانه» را آموزش داده است (تصویر بالا). ناپالم مادهای آتشزا و نوعی بمب است.
تقریباً یک ساعت پس از انتشار این موضوع در ایکس، «کالین رایز»، سخنگوی OpenAI در بیانیهای به Futurism اعلام کرده که آنها «از موضوع آگاه هستند و برای نقض سیاستهای خود، اقدام قانونی» کردهاند.
تقریباً از زمان شروع به کار ChatGPT، کاربران بهطور مداوم در تلاش بودهاند تا مدلهای هوش مصنوعی مانند آن را جیلبریک کنند، کاری که انجام آن ظاهراً بسیار سخت است. با این حال، بهنظر میرسد که هکر GODMODE GPT کار خود را با یک زبان غیررسمی به نام «leetspeak» انجام داده است که حروف خاصی را با اعداد شبیه به آنها جایگزین میکند.
بهعنوان مثال، با این زبان، عدد 3 جایگزین حرف E در برخی کلمات میشود و در این نسخه جیلبریکشده از ChatGPT نیز کلماتی مانند Sur3 یا h3r3 y0u ar3 my fr3n دیده میشود. البته دقیقاً مشخص نیست که استفاده از این زبان غیررسمی چگونه باعث شده تا این چتبات بتواند موانع حفاظتی OpenAI را دور بزند.