کلید آخرین جنگ دنیا در دستان چه کسی است؟

اقتصادنیوز جمعه 23 تیر 1402 - 10:04
در سال ۱۹۴۵، درست پیش‌ از آزمایش اولین بمب هسته‌ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که در ساخت این بمب همکاری کرده بود، با دانشمندان همکارش شرط‌بندی کرد.

به گزارش اقتصادنیوز به نقل از زومیت، هوش مصنوعی ظاهرا به‌زودی تمام ابعاد زندگی ما را فرا می‌گیرد. اما آیا آخرالزمان هوش مصنوعی نیز در راه خواهد بود؟ چه کسی واقعا می‌تواند پیش‌بینی کند؟

در سال ۱۹۴۵، درست پیش‌ از آزمایش اولین بمب هسته‌ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که در ساخت این بمب همکاری کرده بود، با دانشمندان همکارش شرط‌بندی کرد. آیا گرمای بی‌سابقه ناشی از انفجار، باعث ایجاد آتش‌سوزی هسته‌ای در جو می‌شود؟ اگر چنین شود، آیا طوفان آتش فقط نیومکزیکو را از بین می‌برد یا تمام دنیا را به ورطه‌ی نابودی می‌کشاند؟ البته آن آزمایش آن‌قدرها هم که از شرط‌بندی شیطنت‌آمیز فرمی برداشت می‌شود، بی‌پروایانه نبود. هانس بته، فیزیکدان دیگر، محاسبه کرده بود که به‌وجود آمدن چنین دوزخی تقریباً غیرممکن است.

این روزها، نگرانی در مورد «خطرات وجودی»، یعنی آن‌هایی که برای تمام نسل بشر به‌عنوان یک گونه (نه برای انسان‌ها به صورت فردی) تهدیدی جدی به‌شمار می‌رود، به دانشمندان نظامی محدود نمی‌شود. جنگ هسته‌ای، زمستان هسته‌ای، بیماری‌های دنیاگیر (چه طبیعی مانند کووید ۱۹ یا مهندسی شده)، برخورد سیارک با زمین و موارد بی‌شمار دیگر، می‌تواند بیشتر انسان‌ها یا حتی تمامی نسل بشر را از بین ببرد.

به‌نقل از اکونومیست، امروزه جدیدترین تهدید آخرالزمانی برای بشریت، هوش مصنوعی (AI) و پایان دنیا و نسل بشر به‌دست این فناوری است. در ماه مه، گروهی از افراد برجسته در حوزه‌ی هوش مصنوعی نامه‌ی سرگشاده‌ای را امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های دنیاگیر و جنگ هسته‌ای، یک اولویت جهانی باشد.»

اما چقدر منطقی است که دراین‌باره نگران باشیم؟ ۱۰ ژوئیه (۱۹ تیر) گروهی از محققان از جمله ازرا کارگر، اقتصاددان از فدرال رزرو شیکاگو، و فیلیپ تتلاک، دانشمند علوم سیاسی از دانشگاه پنسیلوانیا، مقاله‌ای را منتشر کردند که سعی می‌کند با بررسی نظام‌مند دو گروه مختلف از کارشناسان، به پاسخ این پرسش دست پیدا کند.

در یک سوی پژوهش، متخصصان حوزه‌ی مورد بحث یا «حیطه‌ی خاص» در جنگ هسته‌ای، سلاح‌های زیستی، هوش مصنوعی و حتی خود مبحث «انقراض» قرار داشتند و در سوی دیگر، گروهی از «اَبَرپیش‌بینی‌کنندگان حرفه‌ای» یا پیشگویان همه‌منظوره با پیش‌بینی‌های دقیق در مورد انواع مباحث مختلف، از نتایج انتخابات گرفته تا شروع جنگ‌های مختلف.

محققان درمجموع ۸۹ اَبَرپیش‌بینی‌کننده، ۶۵ متخصص حوزه و ۱۵ متخصص «خطر انقراض» را انتخاب کردند. دو نوع فاجعه‌ی متفاوت برای سنجش به داوطلبان گردآمده ارائه شد. یک فاجعه به‌عنوان «بلای طبیعی ناگهانی» تعریف شد که باعث کشته شدن فقط ۱۰ درصد از انسان‌های جهان یا حدود ۸۰۰ میلیون نفر می‌شود. برای مقایسه، تخمین زده می‌شود که جنگ جهانی دوم در زمان خود باعث مرگ حدود ۳ درصد از جمعیت ۲ میلیاردی جهان شد. در سوی دیگر «انقراض» به عنوان واقعه‌ای تعریف شد که همه‌ی انسان‌ها را، با شانس استثنا قائل شدن برای حداکثر ۵۰۰۰ نفر خوش‌شانس (یا بدشانس)، از بین ببرد.

اگر قرار بر رفتن باشد، همه با هم می‌رویم

از دو گروه خواسته شد که درباره‌ی احتمال وقوع همه چیز، از رویدادهای پایانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هسته‌ای تا سؤالات کوچک‌تر، ازجمله این‌که چه پیشرفت‌های نگران‌کننده‌ای در توانایی‌های هوش مصنوعی ممکن است رخ بدهد و به‌عنوان تابلوی راهنما در مسیر یک فاجعه در آینده عمل کند، پیش‌بینی‌هایی ارائه کنند.

بارزترین نتیجه‌ی مطالعه بود که متخصصان حوزه که معمولا بر گفتگوهای عمومی درمورد خطرات وجود تسلط دارند، درمقایسه با ابرپیش‌بینی‌کنندگان آینده را بسیار تیره‌تر می‌بینند. متخصصان تخمین زدند که احتمال وقوع فاجعه‌ی بلای طبیعی تا سال ۲۱۰۰ حدود ۲۰ درصد و احتمال انقراض بشر حدود ۶ درصد است. اَبَرپیش‌بینی‌کنندگان برای این رویدادها، احتمالات ۹ و ۱ درصد را در نظر گرفتند.

این شکاف گسترده، جزئیات جالبی را در خود پنهان کرده است. درهنگام تشخیص خطرات ناشی از هوش مصنوعی دو گروه بیش‌ترین تفاوت نظر را داشتند. پیش‌بینی‌کنندگان به‌طور متوسط تخمین زدند که تا پایان قرن، احتمال وقوع فاجعه‌ای ناشی از هوش مصنوعی ۲٫۱ درصد و احتمال انقراض ناشی از هوش مصنوعی، ۰/۳۸ درصد است. در مقابل، متخصصان حوزه‌ی هوش مصنوعی، به‌ترتیب احتمال ۱۲ و ۳ درصد را به این دو واقعه اختصاص دادند. وقتی نوبت به دنیاگیری‌ها رسید، ابرپیش‌بینی‌کنندگان درمقایسه با متخصصان حوزه نسبت‌به خطرات ناشی از بیماری‌های طبیعی بدبین بودند.

مقایسه نتایج دو گروه ابرپیش‌بینی‌کنندگان و متخصصان.

شاید جالب‌ترین نتیجه این بود که هرچند دو گروه درمورد میزان دقیق خطر اختلاف نظر داشتند، اما هر دو هنگام فکر کردن به فاجعه یا انقراض، هوش مصنوعی را بزرگ‌ترین نگرانی می‌دانستند. دن مریلند، ابرپیش‌بینی‌کننده‌ای که در مطالعه شرکت کرد، معتقد است که یکی از دلایل خطرناک‌تر بودن هوش مصنوعی این است که به‌عنوان «افزاینده‌ی نیرو» در خطرات دیگر مانند سلاح‌های هسته‌ای عمل می‌کند.

کلید آخرین جنگ دنیا در دست کیست؟

در مورد جنگ هسته‌ای یا اصابت سیارک، هوش مصنوعی (مثلاً به‌شکل ربات‌های مسلح) می‌تواند انسان‌ها را مستقیماً به‌کام مرگ بفرستد. همچنین، می‌تواند در تیز کردن تبر جلادهای دیگر نیز دست داشته باشد. برای مثال، اگر انسان‌ها از هوش مصنوعی برای طراحی سلاح‌های زیستی قوی‌تر استفاده کنند، به طور اساسی، هرچند غیرمستقیم، هوش مصنوعی در فاجعه دخیل می‌شود.

ابرپیش‌بینی‌کنندگان در عین بدبینی نسبت به هوش مصنوعی، در مورد آن تا حدودی نامطمئن بودند. نزدیک به ۸۰ سال است که جهان با سلاح‌های هسته‌ای درگیر است. اینکه تاکنون هنوز یک جنگ هسته‌ای تمام و کمال اتفاق نیفتاده است، داده‌های ارزشمندی را شکل می‌دهد که می‌تواند در پیش‌بینی‌های آینده درباره‌ی احتمال وقوع آن مفید واقع شود. اصطلاح هوش مصنوعی دست‌کم در معنای کنونی بسیار جدیدتر است. ظهور مدل‌های امروزی و قدرتمند یادگیری ماشین به سال‌های اولیه‌ی دهه ۲۰۱۰ باز می‌گردد. این حوزه همچنان به‌سرعت در حال توسعه و گسترش است؛ اتفاقی که داده‌های بسیار کمتری را برای پیش‌بینی‌ بر جای می‌گذارد.

دکتر تتلاک به‌طور خاص کارهای زیادی را در مورد بررسی مشکل پیش‌بینی آینده انجام داده است. او اولین کسی بود که «ابرپیش‌بینی‌کنندگان» را شناسایی و نامگذاری کرد؛ افرادی که به نظر می‌رسید به طور غیرعادی در پیش‌بینی آینده موفقیت‌آمیز عمل می‌کنند. چنین افرادی دارای چندین ویژگی مشترک هستند، ویژگی‌هایی مانند تفکر دقیق بر اساس آمار و ارقام و آگاهی از سوگیری‌های شناختی که البته ممکن است آن‌ها را گیج و گمراه کند. ابرپیش‌بینی‌کنندگان با وجود فقدان تخصص خاص، در بسیاری از زمینه‌های فنی دیگر، از امور مالی گرفته تا ژئوپولیتیک، عملکرد و سابقه‌ای بهتر از متخصصان همان دارند.

به نظر می‌رسد تفاوت‌ نظر بین گروه‌ها تا حدودی منعکس‌کننده‌ی تفاوت‌ در مدل‌های آن‌ها از نحوه‌ی عملکرد جهان است. خطرات فاجعه‌بار نه تنها به پیچیده یا قدرتمند بودن یک فناوری، بلکه به نحوه‌ی واکنش انسان‌ها نسبت‌به آن نیز بستگی دارد. برای مثال، پس‌ از هراس از جنگ هسته‌ای در اوایل جنگ سرد، آمریکا و اتحاد جماهیر شوروی، دو قدرت هسته‌ای بزرگ جهان همکاری با یکدیگر را آغاز کردند. ‌این‌دو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس مستقیم» بین مسکو و واشنگتن، توافق‌نامه‌هایی برای بازرسی تسلیحات یکدیگر، و معاهدات طراحی‌شده برای محدود کردن حجم ذخایر، به کاهش خطرات جنگ هسته‌ای کمک کردند.

اما ابرپیش‌بینی‌کنندگان و متخصصان هوش مصنوعی ظاهرا دیدگاه‌های بسیار متفاوتی درمورد نحوه‌ی واکنش جوامع به آسیب‌های کوچک ناشی از هوش مصنوعی داشتند. ابرپیش‌بینی‌کنندگان فکر می‌کردند که چنین آسیب‌هایی باعث بررسی‌ دقیق‌تر و وضع مقررات جدی‌تر برای رفع مشکلات بزرگ‌تر آتی می‌شود. در مقابل، متخصصان حوزه تمایل داشتند فکر کنند که انگیزه‌های تجاری و سیاست‌های جغرافیایی ممکن است حتی پس از ایجاد آسیب واقعی، مهم‌تر از نگرانی‌های ایمنی باشند.

ابرپیش‌بینی‌کنندگان و متخصصان درمورد محدودیت‌های هوش نیز دیدگاه‌های متفاوتی داشتند. کریستی مورل، یکی دیگر از ابرپیش‌بینی‌کنندگان شرکت‌کننده در پژوهش، به‌سادگی معتقد است که «کشتن همه‌ی انسان‌ها آن‌قدرها هم آسان نیست.» وی خاطرنشان می‌کند که احتمالاً انجام این‌کار مستلزم داشتن «میزان خاصی از توانایی برای تعامل با دنیای فیزیکی است. احتمالاً قبل از رسیدن به این مرحله، به پیشرفت بسیار زیادی در دنیای رباتیک نیاز داریم.»

البته مشکل اساسی این نوع پیش‌بینی‌، این است که برخلاف رویدادهای مکرر و با ریسک پایین (مانند پیش‌بینی حرکت قیمت سهام در بازار بورس یا نتیجه‌ی انتخابات)، هرگز راهی برای دانستن اینکه کدام طرف به تشخیص سطح واقعی خطر نزدیک‌تر است، وجود نخواهد داشت. اما اگر ابرپیش‌بینی‌کنندگان در پیش‌بینی‌ آنقدر خوب عمل کنند و متخصصان در حوزه‌ی تخصصی خود دانش موضوعی کافی داشته باشند، حداقل می‌توانیم انتظار داشته باشیم که این دو گروه بر باورهای یکدیگر تأثیر بگذارند.

پیشگویی آینده

مطالعه‌ی پژوهشگران تلاش کرد تا ازطریق ایجاد هم‌اندیشی‌های گروهی، انگیزه‌های مالی برای استدلال‌های بهتر و موارد دیگر، گروه‌ها را به «اقناع متقابل» ترغیب کند. بااین‌حال، شاید باعث تعجب باشد که هر دو طرف قاطعانه بر نظرات خود پافشاری کردند. یکی‌از متخصصان هوش مصنوعی «درماندگی از تعمق و تبادل نظر» را به‌عنوان مشکل اصلی در نظر داشت. به‌عبارت دیگر، هر دو طرف به‌سادگی از تمام پیش‌بینی‌هایی که از آن‌ها خواسته شده بود، خسته شده بودند.

تغییر ذهن یا آن‌طور که پیش‌بینی‌کنندگان «به‌روزرسانی پیش‌فرض‌ها» می‌نامند، ممکن است با شواهد جدید آسان‌تر باشد. درنتیجه، دکتر کارگر و تتلاک امیدوار به جمع‌آوری برخی شواهد هستند. آن‌ها از شرکت‌کنندگان در مطالعه‌ی خود خواستند به پرسش‌هایی درباره‌ی مجموعه‌ای از «شاخص‌های هشدار اولیه» پاسخ دهند؛ معیارهایی که نشان می‌دهند آیا جهان در مسیری به سوی سناریویی فاجعه‌بار قرار دارد یا خیر.

به‌عنوان مثال، میزان قدرت کامپیوتری که در برنامه‌های بزرگ آموزش هوش مصنوعی استفاده می‌شود، ممکن است در ردیابی پیشرفت کلی این حوزه مفید باشد. عامل دیگر، ممکن است سرنوشت نهایی معاهدات کنترل تسلیحات هسته‌ای باشد. امید است که این پرسش‌های کوتاه‌مدت، که بعضی از آن‌ها تا سال‌های ۲۰۲۴ و ۲۰۳۰ پاسخ داده می‌شوند، این حس را به ما بدهند که کدام گروه جدی‌تر هستند و درنتیجه چقدر باید نگران باشیم.

منبع خبر "اقتصادنیوز" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.