ژانویه ۱۹۹۵ روسیه متوجه حرکت موشک هستهای در آسمان شد. این هشدار به رئیس جمهور وقت روسیه رسید. فردی که تصمیم میگرفت که آیا پاسخ دهد یا نه؟ در حالی که سیستم دیگری با هشدار اولیه در تضاد بود و چیز دیگری نشان میداد.
آنچه آنها خیال میکردند اولین موشک از یک حمله گسترده باشد، درواقع موشک تحقیقاتی درباره شفق شمالی بود که پرتاب شده بود.
این حادثه پس از پایان جنگ سرد رخ داد. اما با این وجود یکی از قریب الوقوعترین رخدادهایی بود که میتوانست منجر به جنگ هستهای در جهان شود.
با اختراع بمب اتم بشر برای اولین بار در تاریخ قدرت نابودی خود را به دست آورد. از آن زمان تاکنون، خطر بقای ما- انقراض یا سقوط غیرقابل جبران تمدن بشری- به طور مداوم افزایش یافته است.
بشر کنونی بیش از ۲۰۰ هزار سال است که جان سالم به در برده؛ از برخورد سیارکها، ابرآتشفشانها و موارد مشابه که دلایل طبیعی خطر انقراض محسوب میشوند.
نابودی کامل بشریت قبلا هرگز اتفاق نیفتاده است. در حالی که هیچ روش کاملی برای تعیین خطر ناشی از تهدیدات طبیعی وجود ندارد. کارشناسان تخمین میزنند که این خطر در هر قرن یک در ۱۰ هزار است.
احتمال خطر ناشی از وقوع جنگ هستهای جهانی که منجر به زمستان هستهای میشود وجود دارد، به این دلیل که دود ناشی از سوختن شهرها خورشید را برای سالها مسدود خواهد کرد که باعث میشود چیزهایی که بشر به آن وابسته است از بین برود.
تاکنون جنگ هستهای نداشتهایم. اما سابقه ما بسیار کوتاه است که بگوییم آیا ذاتا بعید است یا ما فقط خوش شانس بودهایم.
تهدید بعدی که بقای ما را تهدید میکند، تغییرات آب و هوایی است. مانند جنگ هستهای، تغییرات آب و هوایی میتواند منجر به سناریوهای وحشتناک زیادی شود که باید سخت تلاش کنیم تا از بروز آنها اجتناب کنیم.
اما این امر باعث انقراض یا فروپاشی غیرقابل جبران نخواهد شد. انتظار داریم زمین چند درجه سانتی گراد گرمتر شود. اما هنوز نمیتوان ۶ یا حتی ۱۰ درجه را کاملا رد کرد که میتواند فاجعهای با ابعاد احتملا بی سابقه ایجاد کند
بزرگترین خطر ممکن است ناشی از فناوریهایی باشد که هنوز در حال ظهور هستند؛ همه گیری مهندسی شده را در نظر بگیرید. بزرگترین فجایع تاریخ بشر ناشی از همه گیریها بوده است. بیوتکنولوژی ما را قادر میسازد تا میکروبها را اصلاح و ایجاد کرده تا کشندهتر از حالت طبیعی شوند.
تهدید بعدی هوش مصنوعی غیرهمسو است؛ اغلب محققان هوش مصنوعی فکر میکنند با هوش مصنوعیای که بتواند از توانایی انسان در جهان پیشی بگیرد، به اندازه یک قرن فاصله داریم. حتی اگر صرفا با در نظر گرفتن بهترین منافع بشریت توسعه یابد، هوش مصنوعی فوق هوشمند میتواند تهدیدی برای موجودیت انسانی باشد. به خصوص اگر با ارزشهای انسانی همسو هم نباشد.
برخی کارشناسان تخمین میزنند به خطر افتادن بقای انسان با هوش مصنوعی ۱۰۰ برابر بیشتر از خطرات طبیعی ذکر شده است. اما این اتفاق به شدت به انتخاب انسان بستگی دارد.
۲۶۶ ۶۹