شرکت OpenAI، سازنده چتبات هوش مصنوعی ChatGPT، از مجموعهای از دستورالعملها و ابزارهای تازه موسوم به «چهارچوب آمادگی» (Preparedness Framework) برای نظارت بر هوش مصنوعی و خطرات آن رونمایی کرد. این کار از طریق یک گروه مشورتی برای تضمین ایمنی انجام خواهد شد که حتی حق وتوی نظرات «سم آلتمن» را خواهد داشت.
بهدنبال جنجالهای زیادی که با اخراج و بازگشت سم آلتمن به سمت مدیرعاملی OpenAI رخ داد، این شرکت حالا در وبلاگ خود از چهارچوب جدیدی برای آمادگی در برابر خطرات رونمایی کرده است. بهنظر میرسد که هدف از انتشار عمومی این سند، نمایش مسیر مشخص شرکت درزمینه شناسایی، تحلیل و تصمیمگیری پیرامون ریسکهای جدی درخصوص مدلهای هوش مصنوعی خواهد بود.
طبق این چهارچوب، مدلهایی که در دست توسعه قرار دارند، توسط تیم «ایمنی سیستمها» ارزیابی خواهند شد. مدلهای پیشگام OpenAI نیز تحت نظارت تیم «آمادگی» قرار میگیرند تا ریسکهای احتمالی پیش از عرضه مدلها، شناسایی و ارزیابی شوند. افزونبراین، یک تیم دیگر به نام «فراهمسویی» وجود دارد که روی حدومرزهای نظری برای مدلهای «فراهوشمند» کار میکند.
دو دسته اول که ملموسترند و مدلهای آنها را در اختیار داریم، کار راحتتری دارند و درک فعالیتهای آنها نیز آسانتر است. این تیمها باید براساس چهار طبقهبندی ریسکها را ارزیابی کنند: امنیت سایبری، «قانعکنندگی» (مثلاً در ارائه اطلاعات غلط)، آناتومی مدلها (مثلاً در قابلیتهای عملکردی خود) و CBRN (مخفف تهدیدات شیمیایی، زیستی، رادیولوژیک و هستهای؛ مثلاً در قابلیت هوش مصنوعی در تولید پاتوژنهای جدید).
تیم «آمادگی» اولینبار در ماه اکتبر معرفی شد و یکی از سه گروه مجزایی است که بر ایمنی هوش مصنوعی در این استارتاپ نظارت میکند. مدیر این تیم «الکساندر مادری» است که امید دارد بتواند با این دستورالعملهای جدید، ریسکهای احتمالی را بهموقع در مدلهای هوش مصنوعی شناسایی کند.
مدتهاست که نگرانیهایی درباره مدلهای هوش مصنوعی قدرتمند مطرح میشود و بهنظر میرسد که این اقدام OpenAI پاسخی در برابر تشدید این نگرانیها با توجه به تحولات اخیر این شرکت باشد.