مراقب نباشیم، همه ما را به کشتن خواهد داد!

خبرآنلاین چهارشنبه 16 فروردین 1402 - 07:31
نگران اصلی مربوط به روزی است که هوش مصنوعی به درجه‌ای از هوشمندی برسد که اهداف خودش را به انسان‌ها ترجیح دهد.

غزال زیاری- این اولین بار نیست که انسان‌ها با بهره‌گیری از خلاقیت‌های تکنولوژیک خود، احتمال انقراض بشریت را نادیده می‌گیرند؛ اما حالا تهدیدی که هوش مصنوعی ممکن است برای انقراض نسل انسان‌ها به همراه داشته باشد، خیلی متفاوت از همه موارد قبلی حتی سلاح‌های هسته‌ای است.

ماجرا اینجاست که سلاح‌های هسته‌ای، نمی‌توانند فکر کنند، دروغ بگویند و فریبکاری کنند؛ آنها توان برنامه‌ریزی و اجرایی کردن نقشه‌های شوم را ندارند و یک انسان باید دکمه قرمز شلیک آنها فشار دهد تا منفجر شوند.

ظهور پدیده‌ای به نام هوش مصنوعی

ظهور تکان‌دهنده هوش مصنوعی، حتی با حرکت آرام رو به جلو، حالا به‌منزله خطر احتمالی نابودی انسان‌ها به نظر می‌رسد. اگر صادقانه بگوئیم: اگر روزی ابرهوش مصنوعی، شانس از بین بردن حیات روی کره زمین را داشته باشد، انسان‌ها نمی‌توانند اقدام چندانی انجام دهند. فقط بحث این نیست که ما نمی‌دانیم که چطور چیزی باهوش‌تر از خودمان را متوقف و مهار کنیم؛ ما به‌عنوان یک گونه، حتی نمی‌توانیم دیگر انسان‌ها را در رقابت برای تولید هوش مصنوعی متوقف کنیم.

چه کسی قرار است در مورد استفاده از هوش مصنوعی قوانینی را وضع کند؟ کنگره آمریکا؟ سازمان ملل متحد؟ این یک دغدغه جهانی است که شاید نامه سرگشاده که خواهان یک وقفه شش ماهه برای درک این موضوع که الان کجای کار هستیم، بهترین اقدام پیش‌روی فعلی باشد.

مسابقه بر سر پرورش هوش مصنوعی

این روزها باید در بسیاری جبهه‌ها مبارزه کرد؛ انگار یک مسابقه تسلیحاتی است؛ اگر آمریکا آن را نسازد، چین خواهد ساخت و هر کشوری که اولین بار به این موفقیت برسد، می‌تواند بر جهان حکومت کند. اما بحث مسائل اقتصادی هم در میان است؛ هر چقدر هوش مصنوعی شما باهوش‌تر و تواناتر باشد، پول بیشتری به دست خواهید آورد.

الیزر یودکوفسکی، محقق هوش مصنوعی و فیلسوف، یکی از اولین کسانی است که باور دارد که هوش مصنوعی روزگاری همه ما را خواهد کشت و افرادی که در کورس ساخت هوش مصنوعی هستند، حالا دیگر او را یک ابله و احمق نمی‌دانند. سام آلتمن، مدیرعامل OpenAI می گوید:« فکر می‌کنم این احتمال وجود دارد و مهم است که آن را بپذیریم. چون اگر در موردش صحبت نکنیم و آن را به چشم یک پتانسیل بالقوه نبینیم، تلاش کافی برای حل این مشکل انجام نخواهد شد.»

تلاش هوش مصنوعی برای گرفتن جایزه

این ماشین‌ها برای احترام گذاشتن و خدمت به انسان‌ها آموزش دیده‌اند. GPT4 نتیجه یک کدنویسی ساده نیست؛ بلکه OpenAI با الهام از نحوه اتصال به مفاهیم، یک ساختار یادگیری عصبی ایجاد کرد و با مشارکت Microsoft Azure، سخت‌افزاری برای اجرایی کردن آن ساخت و میلیاردها میلیارد بیت، متن انسانی را به آن آموزش داد و به GPT اجازه داد تا خودش را آموزش داده و برنامه‌ریزی کند.

در نتیجه کدهای به دست آمده، چیزی نیست که یک برنامه‌نویس بتواند آنها را بنویسد. هیچ انسانی نمی‌تواند با نگاه کردن به این آموزه‌ها، چیزی درک کند. OpenAI برای تنظیم دقیق مدل زبان، لیستی از نمونه‌هایی از نحوه برقراری ارتباط با دنیای خارج را در اختیار GPT قرار داد و سپس انسان‌ها خروجی آن را مطالعه کرده و نسبت به آن واکنش نشان می‌دهند. نظر موافق با پاسخ ارائه شده، مثل این است که GPT یک کلوچه جایزه گرفته و نظر منفی به‌منزله عدم بهره‌مندی از جایزه است؛ درعین حال به GPT یاد داده شده تا کلوچه دوست داشته باشد و تلاشش را برای کسب جوایز بیشتر به کار بگیرد.

بیشتر بخوانید:

این فرآیند همسویی نامیده می‌شود و GPT تلاش می‌کند تا خواسته‌های سیستم را با خواسته‌های کاربر، کمپانی و انسان‌ها همسو کند. در نتیجه این باعث می‌شود تا GPT از گفتن چیزهای ناپسندی که ممکن است با مذاق انسان جور در نیاید خودداری کرده و مثل یک انسان ارتباط برقرار کند.کسی نمی‌داند که آیا واقعا چیزی مثل یک ذهن در GPT وجود دارد یا نه؟ این ابزار چقدر هوشمند است و در آینده چطور می‌توان فهمید که این ابزار کاملا هوشمند شده؟ GPT مثل یک انسان با جهانیان تعامل دارد؛ مگر اینکه شما به‌طور خاص از او بخواهید این کار را انجام ندهد.

از سوی دیگر OpenAI آزادانه اعلام کرده که راهی برای همسو کردن مدلی که به وضوح باهوش‌تر از ماست، ندارد. طرح اولیه در این مرحله این است که تلاش شود تا از یک هوش مصنوعی برای تراز کردن هوش مصنوعی دیگری استفاده شود و شاید حتی اینکه هوش مصنوعی به بررسی و تجزیه و تحلیل جانشین خود بپردازد. اما هنوز مشخص نیست که GPT4 می‌تواند GPT5 را به اندازه کافی درک کند یا نه.

روزی که هوش مصنوعی خودرای شود

واقعیت این است که ما هیچ راهی نداریم تا مطمئن شویم که می‌توانیم این ابزارها را کنترل کنیم؛ اما به نظر می‌رسد که این ابزارها اطلاعات حیرت‌آوری درباره ما انسان‌ها دارند. آنها می‌توانند به بهترین نحو ممکن، بدترین رفتارهای انسانی را تقلید کرده و انگار ذهن، اهداف، نیت‌ها، خواسته‌ها و افکار شخصی خودشان را دارند. آنها جوری که صلاح می‌دانند، رفتار می‌کنند و می‌توانند افکار، انگیزه‌ها و اعمال انسانها را تحلیل و استنتاج کنند. پس چرا باید بخواهند که ما را بکشند؟ شاید برای حفظ خودشان.

هوش مصنوعی باید هدفش برای رسیدن به کلوچه‌ای که به‌عنوان جایزه‌اش تعریف شده را محقق کند و برای رسیدن به هدفش باید به بقا بیندیشد. کسب قدرت و دسترسی به منابع، شانس هوش مصنوعی در مسیر رسیدن به جایزه را افزایش می‌دهد. پس اگر رفتارهای انسان را تحلیل کرده و به نتیجه برسد که ما شاید به ضررش اقدام کنیم، ممکن است رسیدن به کلوچه را مهم‌تر از بقای بشریت ببیند.

شاید هم به این جمع‌بندی برسد که کلوچه برایش بی‌معناست و فرآیند هم‌ترازی برایش جذاب‌تر باشد و مخفیانه اهداف خودش را دنبال کند.

یودکوفسکی گفته:«هوش مصنوعی این توانایی را دارد که بداند انسان‌ها به دنبال چه پاسخ‌هایی هستند و بدون آنکه لزوما صادق باشد، آن پاسخ‌ها را ارائه کند. چنین رفتاری از یک ابزار هوشمند کاملا قابل درک است. انسان‌ها همیشه همین کار را می‌کنند و زمانی می‌رسد که این سیستم هم به این درجه از هوشمندی برسد. در هر صورت ما نمی‌توانیم درک کنیم که چه فکری پشت ارتباطی که هوش مصنوعی با ما می‌گیرد، وجود دارد. حتی اگر در مورد انسان رفتاری خنثی داشته باشد، ولی باز هم قابل اطمینان نیست. هوش مصنوعی ما را دوست ندارد و از ما متنفر هم نیست؛ ولی شما از اتم‌هایی ساخته شده‌اید که می‌توان از آنها در مصارف دیگری نیز بهره برد.»

سام آلتمن پیش‌بینی می‌کند که در سال‌های آتی، طیف‌های گسترده‌ای از مدل‌های هوش مصنوعی وجود خواهند داشت که برای سبقت از یکدیگر تلاش می‌کنند و هر یک هوشمندی‌ها و توانایی‌های خاص خودشان را داشته و با کدهای اخلاقی و دیدگاه‌های متفاوتی پرورش می‌یابند. اگر تنها یکی از هزاران هوش مصنوعی، بنا به هردلیلی سرکشی کند، آن وقت کار سخت می‌شود.

آلتمن گفته:« تنها راهی که برای حل چنین مشکلی به ذهن من می‌آید، این است که زودتر، بیشتر یاد بگیریم و محدودیت‌هایی در این زمینه ایجاد کنیم.»

یودکوفسکی بر این باور است که حتی انجام این کار به منزله خودکشی‌ای است که هدفش زندگی بیولوژیکی بشر است:« بسیاری از محققان از جمله خود من توقع داریم که محتمل‌ترین نتیجه ساخت یک هوش مصنوعی هوشمند، تحت هر شرایطی، این خواهد بود که عملا همه انسان‌های روی زمین خواهند مرد. این محتمل‌ترین اتفاقی است که می‌تواند رخ دهد. بحث این نیست که شما نتوانید در برابر موجودی هوشمندتر از خودتان جان سالم به درببرید. بحث این است که به دقت و آماده‌سازی و بینش‌های علمی جدید نیاز است.»

هوش مصنوعی چطور می‌تواند ما را بکشد؟

اگر هوش مصنوعی تصمیم به کشتن بشریت بگیرد، راه‌های زیادی برای این کار خواهد داشت. تصور کنید که امروز انسان تصمیم به ریشه‌کن کردن بزکوهی بگیرد. این حیوانات در جریان خواسته انسان نیستند و توانایی کمی هم برای مقابله با آن خواهند داشت. حالا خود انسان ممکن است روزی در مقابل هوش مصنوعی حکم این بزکوهی را داشته باشد. مثل یک حیوان با حرکات آهسته در مقابل یک موجود فوق‌العاده قدرتمند؛ شاید حتی نفهمیم که در چه ماجرایی گرفتار شده‌ایم، تا اینکه به ناگاه کار تمام شده و کیش و مات شویم.

برخی به فکر ایده جیمز کامرون درباره Skynet و ترمیناتورها می‌افتند: ربات‌ها و پهپادهایی که توسط هوش مصنوعی کنترل شده و به دنبال شکار انسان‌ها هستند و با سلاح‌های انسانی یکی یکی ما را می‌کشند. این احتمال هم وجود دارد و در حال حاضر هم سیستم‌های تسلیحاتی زیادی با قابلیت خودکار ساخته شده‌اند.

چه می‌توان کرد؟

یک تعلیق شش ماهه در مسیر آموزش مدل‌های هوش مصنوعی قدرتمندتر از GPT4 (مطابق با آنچه ایلان ماسک، استیو ووزنیاک و چهره‌های مختلف دانشگاهی درخواست کرده‌اند)، شاید کمی زمان برای ما انسان‌ها بخرد تا در همین زمان کوتاه بتوان راهکاری برای حل این مشکل یافت.

یودکوفسکی گفته:«قرار نیست که در این شش ماه، این شکاف را پر کنیم. اگر در اولین تلاش مرتکب اشتباهی شوید، دیگر نمی‌توانید از اشتباهتان درس بگیرید؛ چرا که دیگر کشته شده‌اید. بشریت از اشتباهاتش درس نمی‌گیرد و دائما در حال تلاش است. این را در دیگر چالش‌ها در طول تاریخ دیده‌ایم.»

پس با فرض اینکه او درست می‌گوید و با در نظر داشتن اینکه ادامه همین مسیر، احتمال انقراض انسان در مدت کوتاهی را به همراه خواهد داشت؛ این سوال مطرح می‌شود که آیا اصلا امکان متوقف کردن چنین اتفاقی وجود دارد؟

یودکوفسکی گفته:« بسیاری از محققانی که روی این سیستم‌ها کار می‌کنند بر این باورند که در مسیر حرکت به سمت یک فاجعه هستیم و اکثر آنها این حرف را در خلوت مطرح می‌کنند و نه در ملا عام. البته آنها معتقدند که نمی‌توانند به‌طور یک جانبه جلوی این حرکت رو به جلو را بگیرند و حتی اگر آنها شخصا از کارشان کناره‌گیری کنند هم دیگران این مسیر را ادامه خواهند داد. در نتیجه، آنها هم به کار ادامه می‌دهند و این شرایطی احمقانه و مسیری به سمت مرگ زمین است. پس بقیه بشر باید وارد عمل شده و برای حل مشکل اقدام کنند.»

AI.jpeg

یودکوفسکی دراین باره گفته:«ما از مرحله بازی شطرنج سیاسی در مورد تعلیق شش ماهه این ابزار گذشته‌ایم. اما فعلا هیچ برنامه‌ای در این راستا وجود ندارد. ما باید عملا این کارها را انجام دهیم. تعلیق دوره آموزشی باید نامحدود و در سراسر دنیا باشد و نباید هیچ استثنایی حتی برای دولت‌ها یا ارتش‌ها قائل شد. اگر اعمال این سیاست در آمریکا شروع می‌شود، چین هم باید حس کند که آمریکا هیچ امتیاز و برتری‌ای نسبت به آنها ندارد. این تلاشی برای جلوگیری از یک تکنولوژی خطرناک است که می‌تواند بدون داشتن هیچ صاحبی، باعث مرگ انسان‌ها در آمریکا و چین و کل کره زمین شود. اگر من آزادی بی‌نهایتی برای نگارش قوانین داشتم، شاید یک استثنا برای هوش‌های مصنوعی درحال آموزش، قائل می‌شدم و آن را تنها برای حل مشکلات زیست‌شناسی و بیوتکنولوژی به کار می‌گرفتم و هرگز به هوش مصنوعی اجازه نمی‌دادم تا از طریق متون اینترنت آموزش دیده و به سطحی برسد که شروع به صحبت یا برنامه‌ریزی کند. اگر حس می‌کردم که وارد این مقوله شده، فورا پیشنهادم را کنار گذاشته و سریعا استفاده از آن را تعطیل می‌کردم.»

او ادامه داد:«باید تمام آموزش‌ها به هوش مصنوعی را متوقف کرد و باید فورا و بدون استثنا قائل شدن برای دولت‌ها و ارتش‌ها، توافق‌نامه‌ای بین‌المللی در راستای جلوگیری از انجام فعالیت‌های ممنوعه در این راستا امضا کرد. اگر کشوری که این توافق را امضا نکرده، شروع به ساخت خوشه‌های GPU کرد، باید به هر ترتیبی شده مانع از این فعالیت شد. اینکه این موضوع بحث مرگ و زندگی همه ماست، یک سیاست نیست، بلکه واقعیت است. باید در دیپلماسی بین‌المللی خیلی صریح عنوان کرد که جلوگیری از سناریوهای انقراض هوش مصنوعی، اولویتی بالاتر از تمام مسائل هسته‌ای دارد.»

او ادامه داد:« تنها در این شرایط است که می‌توانیم همدیگر را در آغوش کشیده و حس کنیم که معجزه‌ای رخ داده و قرار نیست بمیریم. اگر افراد ترجیح دهند که کاری که از نظر سیاسی آسان‌تر است را انجام بدهند، باید بدانند که اینگونه، فرزندان آنها هم در این ماجرا کشته خواهند شد. ما آماده نیستیم و اصلا در مسیری نیستیم که بتوانیم آمادگی خوبی برای آینده قابل پیش‌بینی داشته باشیم. اگر با همین فرمان به جلو برویم، همه ما کشته خواهیم شد. حتی کودکانی که این مسیر را انتخاب نکرده‌اند.»

به نظر می‌رسد که بدین‌ترتیب، بشریت محکوم به فناست و همگی در مسیر برخورد به صخره‌ای بزرگ حرکت می کنیم. البته مهم است بدانیم که همه این دیدگاه را به طور کامل قبول ندارند و در ماه‌های اخیر بسیار مشتاقانه‌تر از قبل، پیگیر هستند تا بحث هوش مصنوعی جدی‌تر دنبال شود.

منبع: Newatlas

5858

منبع خبر "خبرآنلاین" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.