ابزار هوش مصنوعی ChatGPT میتواند برای انجام طیف گستردهای از وظایف کاری مفید باشد، اما باید به این نکته توجه داشت که تمام اطلاعات به اشتراک گذاشته شده با آن میتواند برای آموزش این چتبات مورداستفاده قرار بگیرد و شاید حتی در پاسخهای آن به سایر کاربران نشان داده شود. در همین رابطه، گفته شده است که چند کارمند سامسونگ اطلاعات محرمانه خود را با ChatGPT به اشتراک گذاشتهاند.
طبق گزارش Engadget، بلافاصله پس از اینکه بخش نیمههادی سامسونگ اجازه استفاده از ChatGPT را به مهندسان خود داد، کارمندان غول فناوری حداقل در سه نوبت اطلاعات محرمانهای را به آن لو دادند. گفته میشود یکی از کارمندان از چتبات OpenAI درخواست کرده است تا کد منبع پایگاه داده حساسی را از نظر خطا بررسی کند، کارمند دیگری بهینهسازی کد را درخواست کرده و نفر سوم جلسه ضبطشدهای را برای ChatGPT ارسال کرده است تا آن را به یک یادداشت تبدیل کند.
علاوهبراین، گفته شده که سامسونگ با محدودکردن طول دستورات ChatGPT به یک کیلوبایت یا 1024 کاراکتر، تلاش کرده است تا از بروز مشکلات مشابه در آینده جلوگیری کند. همچنین این شرکت ظاهراً درحال بررسی سه کارمند اشارهشده و ساخت چتبات اختصاصی خود برای جلوگیری از حوادث مشابه است.
در سیاست مربوط به دادههای ChatGPT نوشته شده که این چتبات از دستورات کاربران برای آموزش خود استفاده میکند. مالک این ابزار، یعنی OpenAI نیز از کاربران درخواست کرده است تا اطلاعات محرمانه را با آن به اشتراک نگذارند؛ زیرا «نمیتواند درخواستهای خاصی را از تاریخچه شما حذف کند». تنها راه حذفکردن اطلاعات شخصی از دادههای ChatGPT، حذف حساب کاربری است که میتواند چهار هفته طول بکشد.
اشتباه کارمندان سامسونگ مثال دیگری است که نشان میدهد هنگام استفاده از چتباتهای هوش مصنوعی نیز مانند تمام فعالیتهای آنلاین خود، باید احتیاط کرد.
اخیراً درباره چتبات OpenAI گفته شده بود که ChatGPT ظاهراً درحال مسدودکردن شمارههای کشورهای آسیایی است و به معرفی ساعتی پرداخته بودیم که با کمک آن، زمان را بهصورت شعر بیان میکند. همچنین استفاده از این ابزار بهدلیل نگرانیهای مربوط به حریم خصوصی، در ایتالیا ممنوع شده بود.