به گزارش خبرگزاری صدا وسیما، مایکروسافت هفته گذشته از نسخه جدید بینگ با پشتیبانی از ChatGPT رونمایی کرد، اما گزارشهایی درباره توهین، دروغ و جوابهای نامناسب توسط این موتور جستجو ارائه شده است. حالا این شرکت بزرگ ردموندی در پست جدید وبلاگ خود به این گزارشها پاسخ داده و میگوید چت طولانی مدت با بینگ، مشکلاتی را ایجاد میکند.
تیم بینگ مایکروسافت در این پست وبلاگ توضیح میدهند که تصور نمیشده مردم از رابط چت آن برای «سرگرمیهای اجتماعی» یا بهعنوان ابزاری برای «شناخت عمومیتر جهان» استفاده کنند. همچنین در این پست گفته شده که چتهای طولانی با ۱۵ سوال یا بیشتر، میتواند بینگ را گیج کند و پاسخهایی را ارائه کند که لزوماً مفید یا مطابق با لحن طراحی شده توسط مایکروسافت نیستند.
تلاش برای برطرف کردن اشتباهات بینگ
مایکروسافت اشاره میکند که ممکن است در آینده ابزاری برای بهروزرسانی راحتتر زمینه اصلی بحث با بینگ فراهم شود. با این حال اکنون یک دکمه بزرگ با عنوان «موضوع جدید» در کنار ورودی متن موتور جستجو وجود دارد که تاریخچه آن را پاک میکند تا کاربران بحث تازهای را شروع کنند.
این شرکت همچنان در حال کار روی بهبود لحن Bing است و تیم مسئول این موتور جستجو نیز در حال بررسی یک تغییر برای کنترل بیشتر خلاقیت بینگ در هنگام پاسخ دادن به سوالات کاربران یا میزان دقت مورد نیاز آن هستند.
پیش نمایش جدید Bing هم اکنون در بیش از ۱۶۹ کشور جهان در حال آزمایش است و میلیونها نفر در لیست انتظار ثبت نام آن قرار دارند. مایکروسافت ادعا میکند که ۷۱ درصد از بازخوردهای مربوط به پاسخهای این موتور جستجو مثبت بوده و برخی از کاربران حتی محدودیتهای این سرویس را با جلسات چت دو ساعته آزمایش کردهاند.
با این حال، فقط بینگ و مایکروسافت با چنین مشکلی روبرو نشدهاند و هوش مصنوعی Bard گوگل که هفته گذشته معرفی شده بود نیز مشکلاتی را به همراه داشته است. همانطور که در گزارش مربوط به این اشتباه گفته شده بود، بارد به سوال یکی از کاربران درباره یکی از دستاوردهای جیمز وب پاسخ اشتباهی داده بود.