چند روز پیش نامهای سرگشاده برای توقف توسعه هوش مصنوعی منتشر شد که آن را افرادی مانند ایلان ماسک، مدیرعامل تسلا و توییتر و استیو وزنیاک، همبنیانگذار اپل امضا کرده بودند. البته شمار افرادی که آن را امضا کرده بودند، از 1000 نفر عبور کرد. اما حالا شماری از افراد میگویند که اصلاً آن را امضا نکردهاند و برخی متخصصان هم استفاده از تحقیقات خود در چنین نامهای را محکوم کردهاند.
در این نامه که سروصدای زیادی بپا کرد، فعالان حوزه فناوری از آزمایشگاهها و شرکتهای فعال در حوزه هوش مصنوعی خواستهاند که توسعه سیستمهای قدرتمندتر از مدل هوش مصنوعی GPT-4 را متوقف کنند. تعدادی از مهندسان آمازون، دیپمایند، گوگل، متا و مایکروسافت هم این نامه را امضا کردهاند.
مدل GPT-4 که اخیراً از سوی شرکت OpenAI معرفی شده است، میتواند مکالماتی مشابه انسان ایجاد کند و حتی قادر به تشخیص تصاویر است. البته این مدل کاربردهای مختلف دیگری هم دارد، مانند نوشتن آهنگ یا خلاصهکردن متون طولانی. طبق ادعای نامه فعالان دنیای فناوری، این سیستمهای هوش مصنوعی میتوانند خطری بزرگ برای بشریت باشند:
«متخصصان مستقل و آزمایشگاههای توسعهدهنده هوش مصنوعی باید از این مکث برای توسعه مشترک مجموعهای از پروتکلهای امنیتی برای توسعه و طراحی هوش مصنوعی استفاده کنند؛ پروتکلهایی که باید شدیداً توسط کارشناسان خارجی بررسی و نظارت شود.»
این نامه به تلاش اندیشکده Future of Life institute یا FLI نوشته شده و در آن به 12 تحقیق مختلف از متخصصان شامل اساتید و مهندسان سابق OpenAI، گوگل و دیپمایند استناد شده است. اما حالا به گزارش گاردین، 4 متخصص که به تحقیق آنها در این نامه استناد شده است، نسبت به ادعاهای مطرحشده، ابراز نگرانی کردهاند.
علاوه بر این موضوع، نامه منتشرشده فاقد پروتکلهای تأییدیه برای امضاها بود و حالا مشخص شده است که برخی افراد اصلاً آن را امضا نکردهاند. از میان این افراد میتوان به «شی جینپینگ» و «یان لیکان»، دانشمند ارشد هوش مصنوعی متا اشاره کرد. لیکان در توییتر رسماً اعلام کرده که این نامه را امضا نکرده و همچنین از آن حمایت نمیکند.
منتقدان نامه اخیر میگویند FLI که عمدتاً توسط بنیاد ماسک تأمین مالی میشود، بهجای اینکه به مشکلات اساسی هوش مصنوعی بپردازد، بهسراغ سناریوهای آخرالزمانی خیالی رفته است. از برخی مشکلات اساسی هوش مصنوعی میتوان به رفتارهای نژادپرستانه و جنسیتزده اشاره کرد.
«مارگارت میچل»، یکی از مدیران سابق بخش هوش مصنوعی گوگل و دانشمند کنونی Hugging Face که مقالهاش مورد استناد نامه اخیر قرار گرفته، از آن انتقاد کرده است و گفته مشخص نیست که منظور از نویسندگان نامه از «قدرتمندتر از GPT-4»، چه بوده است:
«این نامه مجموعهای از اولویتها و روایتهایی درباره هوش مصنوعی را بیان میکند که به نفع حامیان FLI است. نادیدهگرفتن آسیبهای کنونی یک امتیاز محسوب میشود که برخی از محققان از آن بهرهای نمیبرند.»
یکی دیگر از محققان به نام «شیری دوری هاکوهن» که درباره تأثیرگذاری استفاده کنونی از سیستمهای هوش مصنوعی روی تصمیمگیریها در زمینه تغییرات اقلیمی، جنگهای هستهای و دیگر تهدیدات وجودی، مقاله نوشته است، میگوید هوش مصنوعی برای اینکه چنین خطراتی را افزایش دهد، نیازی به دستیابی به هوش در سطح انسان ندارد.
در واکنش به این انتقادها، رئیس FLI، «مکس تگمارک» میگوید که باید خطرات بلندمدت و کوتاهمدت هوش مصنوعی جدی گرفته شوند: «وقتی به فردی در نامه استناد میکنیم، یعنی آن فرد جمله موردنظر را تأیید میکند و نه کل نامه را. علاوهبراین، استناد به این فرد به معنای آن نیست که ما همه تفکرات او را تأیید میکنیم.»