خطر انقراض بشر توسط هوش مصنوعی به اندازه جنگ هسته‌ای است

صدا و سیما چهارشنبه 10 خرداد 1402 - 11:27
مدیران ارشد اجرایی شرکت‌های هوش مصنوعی، کارشناسان و اساتید این حوزه خطر هوش مصنوعی برای جامعه را به اندازه خطر همه گیری یا جنگ هسته‌ای دانسته و درخصوص آن هشدار دادند.
هوش مصنوعیبه گزارش خبرگزاری صدا و سیما به نقل از انگجت، مدیران ارشد اجرایی هوش مصنوعی از جمله سم آلتمن از شرکت «اوپن‌ای آی» و بسیاری از کارشناسان و اساتید حوزه هوش مصنوعی درباره ریسک انقراض بشر در نتیجه گسترش هوش مصنوعی هشدار دادند. به اعتقاد آن‌ها سیاست گذاران باید خطر ناشی از هوش مصنوعی را با ریسک همه گیری ها و جنگ هسته‌ای یکسان بدانند.
 
بیش از ۳۵۰ امضا کننده در نامه‌ای که توسط مرکز ایمنی هوش مصنوعی (CAIS) منتشر شده، نوشته اند: خطر انقراض در نتیجه هوش مصنوعی باید همراه دیگر ریسک‌های بزرگ مانند همه گیری ها و جنگ هسته‌ای به یک اولویت جهانی تبدیل شود.
 
علاوه بر آلتمن، مدیر ارشد اجرایی شرکت‌های دیپ مایند و آنتروپیک و همچنین مایکروسافت و گوگل این بیانیه را امضا کردند. در کنار آن‌ها جفری هینتون و یوشوا بنجیو (دو نفر از سه پدرخوانده هوش مصنوعی) و همچنین پروفسور‌هایی از انستیتو‌های مختلف از هاروارد گرفته تا دانشگاه تسینگهوا چین نیز نامه را امضا کردند.
 
البته میان امضا کنندگان بیانیه CAIS نامی از شرکت متا دیده نمی‌شود چراکه سومین پدرخوانده هوش مصنوعی یعنی یان لی سون در آنجا کار می‌کند.
 
انتشار این نامه با ملاقات هیات تجارت و فناوری آمریکا و اتحادیه اروپا در سوئد مصادف شد که قرار بود طی آن درباره قانونمندسازی هوش مصنوعی گفتگو شود.
 
ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعتی جزو نخستین افرادی بودند که در ماه آوریل درباره ریسک‌های احتمالی فناوری برای جامعه هشدار دادند.

منبع خبر "صدا و سیما" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.