طبق گزارشی جدید، سامسونگ استفاده از ابزارهای هوش مصنوعی مولد محبوب مانند ChatGPT، گوگل بارد و بینگ را بهخاطر مسائل امنیتی برای کارکنان خود ممنوع کرده است.
بلومبرگ در گزارشی مدعی شده است که سامسونگ به کارکنان یکی از بزرگترین بخشهای خود چنین سیاستی را اعلام کرده است. بلومبرگ در گزارش خود به این موضوع اشاره کرده که کرهایها بهخاطر جمعآوری اطلاعات مورد استفاده ابزارهای هوش مصنوعی در سرورهای خارجی و امکان افشای آنها، چنین سیاستی را در پیش گرفته است.
سامسونگ در سیاست جدیدش به کارکنانش گفته که اگرچه از ابزارهای هوش مصنوعی مولد برای افزایش بهرهوری استفاده میشود، اما نگرانیهای امنیتی هم درباره آنها وجود دارد:
«علاقه به پلتفرمهای هوش مصنوعی مولد مانند ChatGPT در داخل و خارج شرکت افزایش پیدا کرده است. درحالیکه این علاقه روی مفیدبودن و افزایش بهرهوری متمرکز است، اما نگرانیهایی هم درباره ریسکهای امنیتی این ابزارها وجود دارد.»
نگرانیهای سامسونگ بیدلیل نیست. ماه گذشته مشخص شد که کارمندان این شرکت اطلاعات محرمانهای را با ChatGPT به اشتراک گذاشتهاند. کارمندان این غول دنیای فناوری حداقل در سه نوبت اطلاعات محرمانهای را به چتبات OpenAI لو دادند که یکی از این موارد مربوط به بررسی کد منبع یک پایگاه داده حساس بود.
سیاست جدید ظاهراً استفاده از ابزارهای هوش مصنوعی مولد را روی کامپیوترها، تبلتها و گوشیهای متعلق به سامسونگ ممنوع میکند. سامسونگ درحالحاضر واکنشی به گزارش بلومبرگ نشان نداده است.
با عرضه ChatGPT در نوامبر سال گذشته میلادی، این ابزارها مورد توجه چشمگیری قرار گرفتند. پس از محصول OpenAI، شاهد انتشار چندین چتبات دیگر ازجمله بارد گوگل و چتبات بینگ بودیم که کاربردهای مختلفی دارند. چند وقت پیش هم هوش مصنوعی GPT-4 از راه رسید که عملکرد بهتری نسبت به نسخههای قبلیاش دارد و ابزارهای هوش مصنوعی را پیشرفتهتر کرده است.