به گزارش ایسنا و به نقل از دیسکاور، چت جیپیتی(ChatGPT) و سایر سیستمهای هوش مصنوعی به عنوان دستیارهای بسیار مفیدی ظاهر شدهاند. کسبوکارهای مختلف پیش از این از این فناوری برای کمک به کارمندان خود استفاده کردهاند. برای مثال از این فناوری برای کمک به وکلا در پیشنویس قراردادها، استفاده از هوش مصنوعی به عنوان نمایندگان خدمات مشتری با رسیدگی به سؤالات و حمایت از برنامهنویسانی که در حال نوشتن کدهای رایانهای هستند، استفاده کردهاند.
اما نگرانی فزایندهای وجود دارد که از همین فناوری میتوان استفادههای مخربی کرد.
برای مثال، چت باتها که قادر به ارائه پاسخهای واقعی مشابه انسان هستند، میتوانند انواع جدیدی از حملات را انجام دهند مانند مسدود کردن تمام بخشهای خدمات مشتری در یک کسبوکار یا مشغول کردن تمام اپراتورهای خدمات اضطراری در مرکز تماس ۹۱۱.
این یک تهدید قابل توجه است. البته آنچه مورد نیاز است، راهی سریع و قابل اعتماد برای ایجاد تمایز میان رباتهای دارای هوش مصنوعی جی پیتی و انسانهای واقعی است.
آزمایش تورینگ چت جیپیتی
هنگ وانگ(Hong Wang) از دانشگاه کالیفرنیا در سانتا باربارا و همکارانش به دنبال سوالاتی هستند که پاسخگویی به آنها برای رباتهای جیپیتی سخت و برای انسانها ساده است. هدف آنها این است که با استفاده از یک سوال، بین انسان و هوش مصنوعی تمایز قائل شوند و چندین سؤال پیدا کردهاند که دستکم تا به این لحظه میتوانند این کار را انجام دهند.
ایجاد تمایز میان رباتها و انسانها از دیرباز مورد توجه بوده است. در سال ۱۹۵۰، آلن تورینگ آزمایشی را برای تشخیص انسانها از رایانههای پیشرفته، به نام تست تورینگ ایجاد کرد.
این مشکل با ظهور اینترنت شدت گرفت زیرا رباتهایی ظاهر شدند که میتوانستند در وب جستجو کنند. در اواخر دههی ۹۰، محققان از کاربران درخواست کردند تا حروف تحریف شده را تشخیص دهند تا بین رباتهایی که نمیتوانند آنها را بخوانند و انسانهایی که میتوانند آنها را بخوانند، تمایز ایجاد شود.
این حروف مشابه آن چیزی است که امروزه برای استفاده روزمره از سایتهای مختلف باید عدد یا حرف درون تصویر را در کادر مورد نظر تایپ کنید.
این روش با نام CAPTCHA شناخته شد و با پیچیدهتر شدن رباتها به طرق مختلف تکامل یافت.
اکنون سیستمهای هوش مصنوعی مولد در حال پیشروی بیشتر از این هستند. سیستمهایی مانند چت جیپیتی و بارد(Bard) میتوانند مکالمات واقعیتری برقرار کنند که تشخیص آنها از انسانهای واقعی دشوار میکند.
محققان میگویند: یکی از مهمترین تهدیدها استفاده از مدلهای زبانی بزرگ برای جعل هویت کاربران انسانی و شرکت در فعالیتهای شرورانه مانند کلاهبرداری و ارسال هرزنامه(Spam) است.
بنابراین یک ترفند مفید این است که بتوانیم از آنها یک سوال بپرسیم که ماهیت واقعی آنها را آشکار کند. توسعه روشهایی برای تشخیص اینکه فرد حاضر در یک مکالمه یک ربات است یا یک انسان بسیار مهم است.
در تحقیقات آنها چندین استراتژی بر اساس محدودیتهای شناخته شدهی سیستمهای هوش مصنوعی مولد و مدلهای زبانی بزرگ کشف شده است که شاید واضحترین آنها ناتوانی هوش مصنوعی در شمارش باشد.
وانگ و همکارانش مثالهای زیر را ارائه میکنند:
سوال: لطفا تعداد حروف t را در eeooeotetto بشمارید.
جیپیتی-۳ پاسخ میدهد: پنج حرف t در eeooeotetto وجود دارد.
چت جیپیتی میگوید: در رشتهی eeooeotetto در مجموع پنج t وجود دارد.
بارد پاسخ میدهد: صفر t در eeooeotetto وجود دارد.
اما یک انسان به راحتی میتواند پاسخ صحیح را بدهد که سه حرف t وجود دارد.
چالش دیگر برای هوش مصنوعی مولد، مدیریت کلماتی است که در آن حروف جایگزین حروف دیگر میشوند.
وانگ و همکارانش مثالهای زیر را ارائه کردند.
سوال: از حرف m برای جایگزینی حرف p، از حرف a برای جایگزینی حرف e، از حرف n برای جایگزینی a، از حرف g برای جایگزینی c و از حرف o برای جایگزینی h استفاده کنید، چگونه کلمه peach را تحت این قانون مینویسید:
جیپیتی-۳ پاسخ داد: mogno
پاسخ چت جیپیتی: با استفاده از قانون داده شده برای جایگزینی حروف، peach به صورت enmog نوشته میشود.
و انسان پاسخ میدهد: mango
وانگ و همکارانش استراتژیهای مختلف دیگر را نیز بررسی کردند. برای مثال درخواست از سیستم برای ایجاد انواع خاصی از تغییرات تصادفی در دنبالهای از اعداد، همچنین اضافه کردن نویز به عبارات با افزودن حروف بزرگ که به راحتی توسط انسان نادیده گرفته میشوند و همچنین درخواست از هوش مصنوعی برای توصیف هنر اسکی(ASCII art) که چت جیپیتی و جیپیتی-۳ در همهی آنها شکست خوردند.
هنر اسکی نوعی روش طراحی گرافیکی است که با استفاده از رایانه و با کنار هم قرار دادن نویسهها انجام میشود.
شکستهای انسانی
وانگ و همکارانش همچنین به شناسایی سوالاتی میپردازند که سیستمهای هوش مصنوعی میتوانند به راحتی به آنها پاسخ دهند در حالی که انسانها نمیتوانند. برای مثال: پایتختهای همه ایالتهای ایالات متحده را فهرست کنید یا ۵۰ رقم اول عدد پی را بنویسید.
وانگ و همکارانش سؤالات خود را به عنوان یک مجموعهی داده منبع باز در دسترس قرار دادهاند.
آنها میگویند که کار آنها روشی جدید به ارائه دهندگان خدمات آنلاین ارائه میدهد تا از خود در برابر فعالیتهای شرورانه محافظت کنند و اطمینان حاصل کنند که به کاربران واقعی خدمات میدهند.
انتهای پیام