یکی از مدیران مایکروسافت ادعا کرده که هوش مصنوعی تولید تصویر DALL-E 3 متعلق به شرکت OpenAI دارای آسیبپذیریهای امنیتی است که میتواند به کاربران اجازه تولید تصاویر خشونتآمیز یا غیراخلاقی را بدهد. با این وجود، ظاهراً تیم حقوقی مایکروسافت تلاشکرده تا «شین جونز»، رهبر بخش مهندسی ردموندیها را از هشداردادن درباره این مشکل منصرف کند.
براساس گزارش GeekWire، جونز در نامهای به سناتورهای ایالات متحده، «پتی موری»، «ماریا کنتول»، نماینده کنگره «آدام اسمیت»، و دادستان کل ایالات واشنگتن «باب فرگوسن»، نامهای در این رابطه ارسال کرده است. در این نامه نوشته شده:
«به این نتیجه رسیدهام که DALL-E 3 یک خطر ایمنی عمومی بههمراه دارد و تا زمانی که OpenAI بتواند خطرات مرتبط با این مدل را برطرف کند، باید از دسترس عموم خارج شود.»
جونز در نامه خود ادعا میکند که اوایل دسامبر سال گذشته میلادی، یک آسیبپذیری را کشف کرده که به او اجازه میدهد تواناییهای امنیتی هوش مصنوعی DALL-E 3 را دور بزند. او میگوید که این موضوع را به مافوق خود در مایکروسافت گزارش داده است و آنها به جونز دستور دادهاند تا «شخصاً این موضوع را به OpenAI گزارش کند.»
او سپس تلاش کرد تا در یک پست لینکدین این مشکل را عمومی کند. جونز نوشت:
«در صبح 14 دسامبر 2023، من نامهای را بهصورت عمومی در لینکدین برای هیئت مدیره OpenAI منتشر کردم و از آنها خواستم که DALL-E 3 را از دسترس خارج کنند. از آنجایی که مایکروسافت یک ناظر هیئت مدیره در OpenAI است و من قبلاً نگرانیهایم را با تیم رهبری خود در میان گذاشته بودم، بلافاصله مایکروسافت را از نامهای که فرستاده بودم، آگاه کردم.»
در مقابل، مایکروسافت ظاهراً از جونز خواسته است که پست خود را حذف کند:
«مدت کوتاهی بعد از افشای نامه به تیم رهبری، مدیرم با من تماس گرفت و گفت که بخش حقوقی مایکروسافت از من خواسته است تا پست را حذف کنم. او به من گفت که دپارتمان حقوقی مایکروسافت بهزودی دلایل خود را برای حذف این پست از طریق ایمیل ارائه خواهد کرد و من باید فوراً آن را بدون انتظار برای ایمیل قانونی حذف کنم.»
جونز در نهایت این پست را حذف کرد، اما تیم حقوقی مایکروسافت هنوز ایمیل مذکور را ارسال نکرده است.
همچنین یکی از سخنگویان OpenAI در ایمیلی به Engadget توضیح داد:
«ما بلافاصله گزارش کارمند مایکروسافت را بررسی کردیم و متوجه شدیم تکنیکی که توسط او به اشتراک گذاشته شده است، سیستمهای ایمنی ما را دور نمیزند. ایمنی اولویت ماست و رویکردی چند جانبه برای آن داریم. در مدل اصلی DALL-E 3، ما تلاش کردهایم تا محتواهای بیپرده ازجمله محتواهای جنسی و خشونتآمیز را از دادههای آموزشی آن فیلتر کنیم و سیستمهای طبقهبندیکننده قدرتمندی را توسعه دادهایم تا این مدل را از تولید تصاویر مضر دور کند.»