چرا نباید به چت بات‌ها اعتماد کنید؟

فرارو پنج شنبه 04 اسفند 1401 - 20:25
مایکروسافت و گوگل معتقدند هوش مصنوعی جستجو را برای همیشه تغییر خواهد داد. تاکنون هیچ دلیلی برای باور چنین موضوعی وجود ندارد.

فرارو- هفته گذشته مایکروسافت و گوگل اعلام کردند که برنامه‌های مبتنی بر هوش مصنوعی مشابه چت جی پی تی (Chat GPT) را در موتور‌های جستجوی خود قرار می‌دهند برنامه‌ای برای تبدیل نحوه یافتن اطلاعات آنلاین به مکالمه با یک چت بات دانای کل. با این وجود، یک مشکل در اینجا وجود دارد: این مدل‌های زبانی اسطوره‌ای بدنام هستند.

به گزارش فرارو به نقل از آتلانتیک، در یک ویدئوی تبلیغاتی چت بات "بارد" ساخت گوگل در مورد نجوم اشتباه فاحشی را مرتکب شد. این چت بات در پاسخگویی بازه زمانی بیش از یک دهه را در مورد پاسخگویی درباره زمان ثبت اولین عکس از سیاره‌ای خارج از منظومه خورشیدی اشتباه کرد. این اشتباه در پاسخگویی باعث شد ارزش سهام شرکت مادر گوگل تا ۹ درصد کاهش یابد.

نمایش زنده "بینگ" که از نسخه پیشرفته‌تر چت جی پی تی برخوردار است نیز با اشتباهات شرم آوری همراه بود. حتی در چند ماه گذشته بسیاری معتقد بودند که هوش مصنوعی در نهایت با نام خود عمل خواهد کرد. با این وجود، اکنون محدودیت‌های اساسی این فناوری نشان می‌دهد که اکثر پیش بینی‌ها درباره آن در بدترین خالت علمی – تخیلی و در بهترین حالت یک بهبود تدریجی در فناوری همراه با گردابی از اشکلات برطرف نشده است.

مشکل از زمانی آغاز می‌شود که شرکت‌ها و کاربران به برنامه‌هایی مانند چت جی پی تی برای تجزیه و تحلیل امور مالی، برنامه ریزی سفر و وعده‌های غذایی و یا ارائه اطلاعات اولیه اعتماد می‌کنند. این مشکل بدان خاطر روی می‌دهد که ما چت بات‌ها را نه صرفا به عنوان ربات‌های جستجوگر بلکه به عنوان چیزی شبیه به مغز قلمداد می‌کنیم.

مایکروسافت و گوگل به جای وادار کردن کاربران به خواندن سایر صفحات اینترنتی آینده‌ای را پیشنهاد کرده‌اند که در آن موتور‌های جستجو از هوش مصنوعی برای ترکیب کردن اطلاعات و تبدیل و بسته بندی آن به نثر اولیه مانند اوراکل‌های سیلکونی استفاده می‌کنند. واقعیت آن است که برنامه‌هایی که از آن تحت عنوان "مدل‌های زبان بزرگ" یاد می‌شود و در حال حاضر این تغییر را ایجاد می‌کنند در تولید جملات ساده عملکرد خوبی دارند، اما در هر مورد دیگری عملکردی بسیار وخشتناک را از خود نشان داده اند.

این مدل‌ها با شناسایی و بازیابی الگو‌ها در زبان مانند یک تصحیح خودکار فوق‌العاده قدرتمند کار می‌کنند. نرم‌افزاری مانند چت جی پی تی ابتدا حجم عظیمی از دروس، کتب، صفحات ویکیپدیا، روزنامه‌ها و پست‌های رسانه‌های اجتماعی را مورد تجزیه و تحلیل قرار می‌دهد و سپس از آن داده‌ها برای پیش بینی واژگان و عبارات استفاده می‌کند.

این برنامه‌ها زبان موجود را مدل سازی می‌کنند بدان معنا که نمی‌توانند ایده‌های تازه ارائه کنند و اتکای این برنامه‌ها به نظم آماری بدان معناست که تمایل دارند نسخه‌های ارزان‌تر و تخریب شده اطلاعات اصلی را تولید کنند چیزی شبیه نسخه‌های معیوب زیراکس.

حتی اگر چت جی پی تی و برنامه‌های مشابه آن یاد گرفته بودند که واژگان را به خوبی پیش بینی کنند باز هم فاقد مهارت اساسی دیگر بودند. برای مثال، این برنامه‌ها دنیای فیزیکی یا نحوه استفاده از منطق را نمی‌دانند، در ریاضیات وحشتناک هستند و در اکثر موارد مربوط به جستجو در اینترنت خود قادر به بررسی نیستند. همین دیروز Chat GPT به ما گفت که شش حرف در نام اش وجود دارد!

این برنامه‌های زبانی چیز‌های "جدید" را می‌نویسند که به آن توهم می‌گویند، اما می‌توان از آن تحت عنوان دروغ نیز یاد کرد. درست مانند تصحیح خودکار در درست کردن حروف این مدل‌ها کل جملات و پاراگراف‌ها را به هم می‌ریزند. گزارش شده که بینگ جدید در پاسخ به پرسش درباره سال‌ها گفته که سال ۲۰۲۲ پس از سال ۲۰۲۳ میلادی از راه می‌رسد و سپس اعلام کرده که اکنون در سال ۲۰۲۲ به سر می‌بریم! با توجه به اشکالات موجود سخنگوی مایکروسافت گفته است: "با توجه به آن که این یک پیش نمایش اولیه از بینگ جدید است گاهی اوقات می‌تواند پاسخ‌های ناردست یا غیر منتظره‌ای ارائه دهد. ما در حال تنظیم پاسخ‌های آن برای ایجاد انسجام و مرتبط ساختن پاسخ به پرسش هستیم".

یکی از سخنگویان گوگل در پاسخ به پرسش مطرح شده از سوی "آتلانتیک" گفته است: "ما در حال بهبود جنبه‌های مهم بارد هستیم تا اطمینان حاصل کنیم که برای کاربران مان آماده است".

به عبارت دیگر، سازندگان بینگ و بارد جدید علیرغم تبلیغاتی که انجام داده اند خود می‌دانند که محصولات شان برای استفاده توسط کاربران جهانی آماده نیستند. اگر ذکر این اشتباهات در پاسخگویی و اشکالات موجود در فناوری مبتنی بر هوش مصنوعی برای شما متقاعد کننده نیست این موضوع را در نظر بگیرید که آموزش یک هوش مصنوعی به مقدار زیادی داده و زمان نیاز دارد.

برای مثال، چت جی پی تی از سال ۲۰۲۱ میلادی به این سو در مورد هیچ چیزی آموزش ندیده است و در نتیجه درباره مسائل مرتبط با پس از سال ۲۰۲۱ میلادی هیچ اطلاعاتی ندارد. هم چنین، به روز رسانی هر مدلی با هر دقیقه اخبار اگر ناممکن نباشد اقدامی غیر عملی است. ظاهرا بینگ جدید در مورد اخبار فوری یا رویداد‌های ورزشی آتی درخواست کاربر را از طریق موتور جستجوی بینگ قدیمی اجرا می‌کند و از آن نتایج همراه با هوش مصنوعی برای نوشتن پاسخ استفاده می‌نماید که چیزی شبیه یک عروسک روسی یا شاید یک مجسمه با روکش طلایی به نظر می‌رسد: در نتیجه، در بخش زیرین لایه بیرونی و درخشان هوش مصنوعی همان بینگ لکه دار و قدیمی وجود دارد که همگان آن را می‌شناسیم و هرگز از آن استفاده نمی‌کنیم.

نکته‌ای که بر شک و تردید‌ها می‌افزاید آن است که مایکروسافت و گوگل چیز زیادی در مورد نحوه عملکرد این ابزار‌های جستجوی مبتنی بر هوش مصنوعی نگفته اند. شاید آنان در حال ترکیب نرم افزار‌های دیگری برای بهبود قابلیت اطمینان بخشی چت بات‌ها هستند تا نگرانی‌ها را برطرف سازند.

در واقع، دو شرکت بزرگ فناوری در جهان اساسا از کاربران می‌خواهند که به کار آنان ایمان باشند و اعتماد کنند گویی که خدایان عصر باستان هستند و چت بات‌های شان مانند آپولو از طریق یک کاهن در معبد دلفی صحبت می‌کنند. این بات‌های جستجوی مبتنی بر هوش مصنوعی به زودی برای استفاده همگان در دسترس خواهند بود.

با این وجود، ما نباید برای انجام فعالیت‌های زندگی مان به این فناوری خودکار در ظاهر شکوهمند اعتماد کنیم. کمتر از یک دهه پیش جهان متوجه شد که فیس بوک کم‌تر یک شبکه اجتماعی سرگرم کننده و بیش‌تر یک ماشین تخریب دموکراسی است. در نتیجه، درباره اعتماد به فناوری‌های غول‌های این عرصه عجله نداشته باشیم.

منبع خبر "فرارو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.