اعلام تاریخ اشتباه به کاربران توسط کوپایلوت مایکروسافت یا ساخت تصاویر نازیها توسط جمینای گوگل ازجمله خطاهای هوش مصنوعی هستند که هر چند وقت یکبار در سرخط خبرها دیده میشوند. بااینحال نمیتوان با اطمینان گفت که کدام یک از این موارد بهدلیل بروز باگ و کدام یک بهدلیل زیرساخت ضعیف رخ میدهد. همین موضوع باعث شده است تا OpenAI اقدام به تدوین مقرراتی برای توسعه ابزارهای مرتبط با این حوزه کند.
شرکت OpenAI بهتازگی اقدام به انتشار پیشنویس چارچوبی تحتعنوان Model Spec کرده است که نحوه عملکرد ابزارهای مبتنی بر هوش مصنوعی ازجمله مدل GPT این شرکت را بیان میکند. در این پیشنویس ذکر شده است که چنین ابزارهایی باید در خدمت توسعهدهنده و کاربر نهایی باشند و پاسخهایی کمککننده با اتکا بر دستورات آنها ارائه دهند. سودمندی برای بشریت با درنظرگرفتن پتانسیلها و آسیبهای احتمالی در کنار احترام به قوانین و عرف جامعه از دیگر نکات مهم پیشنویس مذکور هستند.
از دیگر مواردی که OpenAI در پیشنویس خود به آنها اشاره داشته است میتوان بهدنبالکردن زنجیره دستورات ارائهشده توسط کاربر از سوی هوش مصنوعی و تطبیق آنها با قوانین و مقررات قانونی اشاره کرد. چنین ابزارهایی نباید اطلاعات آسیبزننده را برای کاربران فراهم سازند و به مؤلفین و حق مالکیت معنوی آنها بر آثار احترام بگذارند. رعایت حریم شخصی افراد و عدم ارائه محتوای نامناسب و مستهجن هم از سایر موارد ذکرشده هستند.
«جوان جَنگ»، مدیر محصول OpenAI اشاره دارد که هدف از تدوین پیشنویس گفتهشده، مشخص کردن مرزی میان باگ و خطاهای عمدی در هنگام بروز مشکل است. ازجمله پیشفرضهای درنظرگرفتهشده برای ابزارهای هوش مصنوعی میتوان به اعتماد به کاربر بهعنوان فردی نیک، پرسیدن سؤالات شفاف و ارائه پاسخها بر مبنای عدم قطعیت آنها اشاره نمود.
شایان ذکر است که چارچوب Model Spec بهزودی در OpenAI و محصولات آن اجرایی نخواهد شد و ابزارهای فعلی این شرکت مثل GPT-4 و Dall-E 3 هنوز طبق قوانین قبلی به فعالیت خود ادامه میدهند. این شرکت منتظر دریافت نظرات عموم جامعه، سایر شرکتهای فعال در حوزه هوش مصنوعی و نهادهای ناظر و قانونگذار است. بااینحال مشخص نیست که نظرات ارائهشده تا چه میزان بر شکلدهی نسخه بعدی این پیشنویس تأثیر خواهند داشت.