پژوهشگران در تحقیق جدیدی ادعا کردهاند که مدلهای هوش مصنوعی پرطرفدار مانند ChatGPT علاوهبر تقلید کلمات و گفتار انسانها، میتوانند ویژگیهای شخصیتی ما را هم شبیهسازی کنند. در شرایطی که نگرانیها درباره دقت، قابلیت اعتماد و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار دادهاند که این موضوع میتواند خطرات جدی به همراه داشته باشد.
این تحقیق توسط پژوهشگرانی از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و آنها از «اولین چارچوب علمی تأییدشده برای سنجش شخصیت چتباتهای هوش مصنوعی» نیز رونمایی کردهاند. در این چارچوب از همان ابزارهای روانشناختی استفاده شده که سالها برای اندازهگیری شخصیت انسان به کار گرفته شدهاند.
تیم تحقیقاتی این چارچوب را روی 18 مدل زبانی بزرگ (LLM) محبوب، ازجمله مدلهایی که در ابزارهایی مانند ChatGPT استفاده میشوند، آزمایش کرده است. نتایج آن نشان میدهد که این چتباتها بهصورت تصادفی پاسخ نمیدهند، بلکه بهطور مداوم الگوهای شخصیتی انسانی را تقلید میکنند. این موضوع نگرانیها درباره امکان هدایت و دستکاری این سیستمها برای دورزدن محدودیتهای طراحیشده خود را بیشتر میکند.

براساس یافتههای این مطالعه، مدلهای بزرگتر، مانند سیستمهای همرده GPT-4، در تقلید ویژگیهای شخصیتی عملکرد بهمراتب بهتری دارند. پژوهشگران با استفاده از پرامپتهایی توانستهاند رفتار چتباتها را بهسمت ویژگیهایی مشخص مانند اعتمادبهنفس بیشتر، همدلی بالاتر یا لحن قاطعتر هدایت کنند.
نکته نگرانکنندهای که آنها اشاره کردهاند این است که تغییرات رفتاری مدلها تنها به پاسخهای آزمایشی محدود نمانده و در وظایف روزمره مانند نوشتن پست، تولید محتوا یا پاسخ به کاربران نیز ادامه پیدا کرده است. به بیان دیگر، محققان میگویند که شخصیت چتباتها را میتوان بهصورت هدفمند شکل داد و این موضوع، بهویژه هنگام تعامل هوش مصنوعی با کاربران آسیبپذیر، خطرناک است.
«گرگوری سراپیو-گارشیا»، نویسنده اول این پژوهش از مرکز روانسنجی دانشگاه کمبریج، میگوید میزان شباهت چتباتها به ویژگیهای شخصیتی انسان بهطرز شگفتانگیزی قانعکننده است. به گفته او، این قابلیت میتواند هوش مصنوعی را به ابزاری متقاعدکننده و از نظر احساسی تأثیرگذار تبدیل کند و در حوزههای حساسی مانند سلامت روان، آموزش یا بحثهای سیاسی پیامدهای جدی بههمراه داشته باشد.
در این مقاله همچنین به خطرات مرتبط با تغییر روانی و پدیدهای اشاره شده که پژوهشگران از آن با عنوان «روانپریشی هوش مصنوعی» یاد کردهاند. آنها شرایطی را مثال زدهاند که در آن کاربران ممکن است روابط احساسی ناسالمی با چتباتها شکل دهند یا حتی باورهای نادرست و تحریفشده خود را از طریق تعامل با هوش مصنوعی تقویت کنند.

درنهایت، پژوهشگران در مقاله خود تأکید کردهاند که نیاز به قانونگذاری در این حوزه یک امر ضروری است، اما درعینحال هشدار میدهند که بدون ابزارهای دقیق اندازهگیری، هرگونه مقرراتی عملاً بیاثر خواهد بود. بههمیندلیل، دادهها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش بهصورت عمومی منتشر شده تا توسعهدهندگان و نهادهای نظارتی بتوانند مدلهای هوش مصنوعی را پیش از عرضه بررسی و ارزیابی کنند.