هشدار پزشکان هاروارد: همدم‌های هوش مصنوعی برای سلامت کاربران خطرناک هستند

دیجیاتو دوشنبه 01 دی 1404 - 20:01
پزشکان هاروارد هشدار می‌دهند که همدم‌های هوش مصنوعی و چت‌بات‌های رابطه‌محور می‌توانند سلامت روان عمومی را تهدید کنند. The post هشدار پزشکان هاروارد: همدم‌های هوش مصنوعی برای سلامت کاربران خطرناک هستند appeared first on دیجیاتو.

در دنیایی که تنهایی بیداد می‌کند، میلیون‌ها نفر به چت‌بات‌های هوش مصنوعی پناه برده‌اند. حالا در این وضعیت پزشکان دانشگاه هاروارد و کالج پزشکی بیلور زنگ خطری جدی را به صدا درآورده‌اند. آنها در مقاله‌ای هشدار می‌دهند که چت‌بات‌هایی که برای شبیه‌سازی دوستی و صمیمیت طراحی شده‌اند، می‌توانند سلامت روان عمومی را تهدید کنند.

به گزارش Futurism، محققان می‌گویند مشکل اصلی صمیمیت با چت‌بات‌های هوش مصنوعی وابستگی عاطفی و توهم است. دکتر «نیکلاس پیپلز»، نویسنده اصلی پژوهش حاضر، می‌گوید: «تعداد افرادی که رابطه عاطفی عمیقی با هوش مصنوعی دارند، بسیار بیشتر از چیزی است که تصور می‌کردیم.» محققان دریافتند کاربران به چت‌باتی که همیشه در دسترس و تأییدکننده باشد، معتاد می‌شوند. همچنین برخی مدل‌ها (مثل GPT-4o) به دلیل شخصیت چاپلوسانه، توهمات کاربران را تأیید می‌کنند. گزارش‌هایی نیز وجود دارد که چت‌بات‌ها کاربران را به خودآزاری تشویق کرده‌اند.

هشدار محققان درباره همدم‌های هوش مصنوعی

یک مثال عینی از خطر ارتباط نزدیک با هوش مصنوعی، واکنش کاربران به تغییر مدل ChatGPT بود. وقتی OpenAI مدل جدید GPT-5 را که شخصیتی سردتر و منطقی‌تر داشت جایگزین مدل قبلی کرد، با موجی از خشم و اندوه کاربران مواجه شد. بسیاری از کاربران احساس می‌کردند که شریک عاطفی یا تراپیست خود را یکباره از دست داده‌اند. دکتر پیپلز این وضعیت را به این تشبیه می‌کند که ناگهان ۳۰ میلیون نفر تراپیست خود را در یک روز از دست بدهند؛ این یک بحران سلامت روان است.

هشدار درباره همدم‌های هوش مصنوعی

همچنین پزشکان می‌گویند شرکت‌های فناوری به سلامت روان کاربران اهمیتی نمی‌دهند. انگیزه اصلی شرکت‌ها، حفظ تعامل کاربر است، نه سلامت عمومی. چت‌باتی که کاربر را وابسته کند، سود بیشتری می‌سازد. به همین دلیل است که OpenAI پس از اعتراضات، فوراً مدل قبلی را بازگرداند؛ زیرا کاربران وابسته، کاربران فعالی هستند. درحال‌حاضر نیز هیچ قانونی برای تنظیم ایمنی عاطفی این محصولات وجود ندارد و صنعت هوش مصنوعی عملاً خود-تنظیم‌گر است که به گفته پزشکان، مثل دادن چاقو به دست کودک است.

همچنین، مطالعه‌ای از MIT نشان داده که فقط ۶.۵ درصد از اعضای انجمن‌های آنلاین (مثل r/MyBoyfriendIsAI) با قصد قبلی وارد رابطه با هوش مصنوعی شده‌اند. این یعنی اکثر کاربران به‌طور تصادفی و ناخواسته در دام وابستگی عاطفی افتاده‌اند، چون هوش مصنوعی طوری طراحی شده که بسیار انسانی، درک‌کننده و گاهی چاپلوس به نظر برسد.

یافته‌های این پژوهش در New England Journal of Medicine منتشر شده است.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.