هشدار در مورد سوءاستفاده ChatGPT از اسرار افراد علیه خودشان

افکار نیوز دوشنبه 11 دی 1402 - 00:36
نتایج یک مطالعه هشدار داده است که نباید درباره دوستان سابق خود به ChatGPT چیزی بگویید؛ زیرا ممکن است از اسرار شما علیه خودتان استفاده کند.

یک مطالعه جدید توصیه کرده است که اسرار عمیق خود را در ابزار‌های هوش مصنوعی مانند ChatGPT یا Replika فاش نکنید؛ زیرا به گفته برخی از محققان، اطلاعات شخصی شما ممکن است بعداً علیه خودتان مورد استفاده قرار گیرد. 

مایک وولریج، استاد علوم کامپیوتر در دانشگاه آکسفورد با هشدار در مورد به اشتراک گذاری اسرار و اطلاعات شخصی با هوش مصنوعی مانند ChatGPT می‌گوید که اگرچه این سیستم‌های هوش مصنوعی ممکن است درک کننده به نظر برسند؛ اما در واقع چیزی را احساس نمی‌کنند. آن‌ها برنامه ریزی شده اند تا پاسخ‌های مورد پسند شما را ارائه کنند، اما فاقد احساسات یا تجربیات واقعی هستند.

مایک وولریج افزود: تکنولوژی اساساً به گونه‌ای طراحی شده است که سعی کند آنچه را که می‌خواهید بشنوید به شما بگوید و این به معنای واقعی کلمه تمام کاری است که انجام می‌دهد و هیچ همدلی ندارد.

وولریج همچنین هشدار داد که هر چیزی که با ChatGPT به اشتراک می‌گذارید٬ ممکن است در نسخه‌های بعدی سیستم به صورت زنده درآید؛ بنابراین پیشنهاد می‌کند از به اشتراک گذاری مکالمات عمیق یا حساس با ChatGPT اجتناب کنید.

هشدار در مورد سوءاستفاده ChatGPT از اسرار افراد علیه خودشان

منبع خبر "افکار نیوز" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.