هشدار محققان: چت‌بات‌ها می‌توانند شخصیت انسان را تقلید کنند

دیجیاتو جمعه 28 آذر 1404 - 22:33
در این تحقیق از چارچوبی استفاده شده که برای اندازه‌گیری شخصیت انسان به‌کار گرفته می‌شود و نتایج نگران‌کننده‌ای داشته است. The post هشدار محققان: چت‌بات‌ها می‌توانند شخصیت انسان را تقلید کنند appeared first on دیجیاتو.

پژوهشگران در تحقیق جدیدی ادعا کرده‌اند که مدل‌های هوش مصنوعی پرطرفدار مانند ChatGPT علاوه‌بر تقلید کلمات و گفتار انسان‌ها، می‌توانند ویژگی‌های شخصیتی ما را هم شبیه‌سازی کنند. در شرایطی که نگرانی‌ها درباره دقت، قابلیت اعتماد و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار داده‌اند که این موضوع می‌تواند خطرات جدی به همراه داشته باشد.

این تحقیق توسط پژوهشگرانی از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و آنها از «اولین چارچوب علمی تأییدشده برای سنجش شخصیت چت‌بات‌های هوش مصنوعی» نیز رونمایی کرده‌اند. در این چارچوب از همان ابزارهای روان‌شناختی استفاده شده که سال‌ها برای اندازه‌گیری شخصیت انسان به کار گرفته شده‌اند.

تقلید الگوهای شخصیتی توسط مدل‌های هوش مصنوعی

تیم تحقیقاتی این چارچوب را روی 18 مدل زبانی بزرگ (LLM) محبوب، ازجمله مدل‌هایی که در ابزارهایی مانند ChatGPT استفاده می‌شوند، آزمایش کرده است. نتایج آن نشان می‌دهد که این چت‌بات‌ها به‌صورت تصادفی پاسخ نمی‌دهند، بلکه به‌طور مداوم الگوهای شخصیتی انسانی را تقلید می‌کنند. این موضوع نگرانی‌ها درباره امکان هدایت و دستکاری این سیستم‌ها برای دورزدن محدودیت‌های طراحی‌شده خود را بیشتر می‌کند.

هوش مصنوعی GPT-4

براساس یافته‌های این مطالعه، مدل‌های بزرگ‌تر، مانند سیستم‌های هم‌رده GPT-4، در تقلید ویژگی‌های شخصیتی عملکرد به‌مراتب بهتری دارند. پژوهشگران با استفاده از پرامپت‌هایی توانسته‌اند رفتار چت‌بات‌ها را به‌سمت ویژگی‌هایی مشخص مانند اعتمادبه‌نفس بیشتر، همدلی بالاتر یا لحن قاطع‌تر هدایت کنند.

نکته نگران‌کننده‌ای که آنها اشاره کرده‌اند این است که تغییرات رفتاری مدل‌ها تنها به پاسخ‌های آزمایشی محدود نمانده و در وظایف روزمره مانند نوشتن پست، تولید محتوا یا پاسخ به کاربران نیز ادامه پیدا کرده است. به بیان دیگر، محققان می‌گویند که شخصیت چت‌بات‌ها را می‌توان به‌صورت هدفمند شکل داد و این موضوع، به‌ویژه هنگام تعامل هوش مصنوعی با کاربران آسیب‌پذیر، خطرناک است.

«گرگوری سراپیو-گارشیا»، نویسنده اول این پژوهش از مرکز روان‌سنجی دانشگاه کمبریج، می‌گوید میزان شباهت چت‌بات‌ها به ویژگی‌های شخصیتی انسان به‌طرز شگفت‌انگیزی قانع‌کننده است. به گفته او، این قابلیت می‌تواند هوش مصنوعی را به ابزاری متقاعدکننده و از نظر احساسی تأثیرگذار تبدیل کند و در حوزه‌های حساسی مانند سلامت روان، آموزش یا بحث‌های سیاسی پیامدهای جدی به‌همراه داشته باشد.

در این مقاله همچنین به خطرات مرتبط با تغییر روانی و پدیده‌ای اشاره شده که پژوهشگران از آن با عنوان «روان‌پریشی هوش مصنوعی» یاد کرده‌اند. آنها شرایطی را مثال زده‌اند که در آن کاربران ممکن است روابط احساسی ناسالمی با چت‌بات‌ها شکل دهند یا حتی باورهای نادرست و تحریف‌شده خود را از طریق تعامل با هوش مصنوعی تقویت کنند.

کار با ChatGPT

درنهایت، پژوهشگران در مقاله خود تأکید کرده‌اند که نیاز به قانون‌گذاری در این حوزه یک امر ضروری است، اما درعین‌حال هشدار می‌دهند که بدون ابزارهای دقیق اندازه‌گیری، هرگونه مقرراتی عملاً بی‌اثر خواهد بود. به‌همین‌دلیل، داده‌ها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش به‌صورت عمومی منتشر شده تا توسعه‌دهندگان و نهادهای نظارتی بتوانند مدل‌های هوش مصنوعی را پیش از عرضه بررسی و ارزیابی کنند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.