در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه»، مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرقوبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبتها واکنش نشان دادهاند.
گرگ براکمن، همبنیانگذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیهای را منتشر کرد که بهصورت مشترک توسط او سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاشهای یان لیکه برای این شرکت، به سه نکته برای رفع ابهامات اشاره میکند. در ابتدا میگوید OpenAI سطح آگاهی عمومی درباره ریسکها و فرصتهای هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آمادهتر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانونگذاری و کنترلهای بینالمللی برای AGI بوده است.
این بیانیه در ادامه میگوید OpenAI زیرساختهای لازم برای توسعه سیستمهای تواناتر را پیادهسازی کرده ولی اذعان میکند که پیبردن به چگونگی ایمنسازی فناوریهای جدید کار آسانی نیست. بنیانگذاران OpenAI میگویند برای مثال، آنها تلاش زیادی کردند تا مدل هوش مصنوعی GPT-4 را بهشکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفادهها ادامه دادهاند.
سومین نکتهای که براکمن و آلتمن به آن اشاره کردهاند، این واقعیت است که آینده از گذشته سختتر خواهد بود. آنها میگویند OpenAI باید ایمنی سیستمهای خود را با هر مدل جدید ارتقا دهد. این دو پیشبینی میکنند که در آینده مدلهای هوش مصنوعی بیشتر از قبل با دنیای واقعی درهمآمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. بههمین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آنها صورت بگیرد و این اقدامات باید در زمینه شیوههای یادگیری، حل مسئله و دیگر مسائل مرتبط با ایمنی باشد.
گرگ براکمن و سم آلتمن تأکید کردند که این شرکت نمیتواند پیشبینی دقیقی از آینده داشته باشد، بنابراین به ایمنسازی تمامی فرایندهای خود ادامه خواهد داد تا برای ریسکهای گوناگون آماده باشد. این بیانیه یادآور میشود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید بهطور همزمان به سمت ارائه قابلیتهای مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسئولیتهای خود را جدی میگیرد.