اخلاق و قانون در عصر هوش مصنوعی | آیا هوش مصنوعی به عنوان یک سلاح نظامی امنیت جهان را به مخاطره می‌اندازد؟

همشهری آنلاین یکشنبه 22 آبان 1401 - 10:04
یکی از نگرانی‌هایی که امروز وجود دارد، بعد نظامی هوش مصنوعی و تبدیل آن به یک سلاح نظامی است که می‌تواند روابط امنیتی در سطح جهان را دگرگون کند.

به گزارش همشهری آنلاین،‌ احتمالا در فیلم‌های علمی- تخیلی دیده‌اید که روبات‌ها، ماشین‌ها یا سامانه‌های کامپیوتری که به‌دست انسان‌ها طراحی و ساخته شده‌اند، بر زندگی خالقان‌شان چیره می‌شوند و سر به طغیان می‌گذارند و علیه اربابان‌شان می‌شورند. اما آیا این نگرانی که زندگی انسان در معرض تهدید هوش مصنوعی قرار دارد صرفا ایده‌ای جذاب برای ساخت فیلم و سریال و نوشتن کتاب است یا ریشه در واقعیت دارد و انسان باید نگران روزی باشد که اختیار زندگی‌اش از دست خودش خارج شود و فناوری‌هایی که برای راحتی خود خلق کرده، درصدد سلب ‌آسایش از او برخواهند آمد؟

شاید خیلی خیال‌پردازی باشد که فکر کنیم فناوری‌های هوش ‌مصنوعی تهدیدی برای جان انسان‌ها خواهند بود. همین حالا هم بسیاری از پیشرفت‌های حاصل در حوزه هوش مصنوعی به بهبود زندگی انسان منجر شده است. با این حال، نمی‌توان کتمان کرد که هوش مصنوعی تغییراتی در جهان سال‌های نه‌چندان دور آینده ایجاد خواهد کرد که لازم است از حالا به این تغییرات و تأثیراتی که روی زندگی انسان می‌گذارد بیندیشیم.

پیش از هر سخن دیگری، اول ببینیم هوش مصنوعی چیست؟ به‌طور خلاصه، هوش مصنوعی هوشی است که توسط ماشین‌ها ظهور پیدا می‌کند، در مقابل هوش طبیعی که توسط جانوران شامل انسان‌ها نمایش می‌یابد. برخی منابع اصطلاح «هوش مصنوعی» را جهت توصیف ماشینی استفاده می‌کنند که عملکردهای «شناختی» را از روی ذهن انسان‌ها تقلید می‌کند، همچون «یادگیری» و «حل مسئله»، هرچند این تعریف کاملا دقیق نیست. پژوهشگاه فرهنگ، هنر و ارتباطات با دغدغه بررسی تأثیرات هوش مصنوعی در جامعه به برگزاری سلسله نشست‌های «فرهنگ عمومی، اخلاق و هوش مصنوعی» اهتمام ورزیده که هفته پیش نخستین نشست آن برگزار شد. در ادامه، گزارش این نشست که به بررسی ابعاد مختلف این موضوع اختصاص داشته آمده است.

پدیده‌ای ورای مرزها

نخستین نشست از سلسله نشست‌های «فرهنگ عمومی، اخلاق و هوش مصنوعی» با همکاری شورای فرهنگ عمومی و با حضور احمد پاکتچی (سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو)، محمد حسینی‌مقدم (عضو هیأت‌علمی گروه مطالعات آینده‌نگر مؤسسه مطالعات فرهنگی و اجتماعی)، سیدعلی حسینی (دکتری هوش مصنوعی از دانشگاه لندن) و با دبیری محمد نصراوی (دانشجوی دکتری سیاستگذاری فرهنگی) در پژوهشگاه فرهنگ، هنر و ارتباطات، برگزار شد.

در بخش اول این برنامه احمد پاکتچی درباره سند اخلاق هوش مصنوعی در یونسکو به ایراد سخن پرداخت و در باب چیستی هوش مصنوعی گفت: هوش مصنوعی به‌عنوان یک فناوری نوین، پدیده‌ای است به‌شدت در حال توسعه که بسیاری از کشورها، سازمان‌های بین‌المللی و خیلی از متفکران را به این سمت سوق داده که قبل از اینکه برای بشریت اتفاق یا فاجعه‌ای رخ دهد، تدبیری در این‌باره بکنند تا هوش مصنوعی مسیر لجام‌گسیخته‌ای را طی نکند و به بشر صدمه‌ای نزند.

شاید به‌طور خاص از سال ۲۰۱۹ تاکنون، موضوع داشتن ابزارهای کنترلی روی هوش مصنوعی موردتوجه دولت‌ها و سازمان‌های بین‌المللی قرار گرفته است. او با مروری بر سندهای مختلف تصویب‌شده از سال ۲۰۱۹ تا ۲۰۲۲، از یک دومینوی خیلی تند و سریع یاد کرد و افزود: در این 3سال اسنادی در کشورهای مختلف تصویب شده که شبیه یک دومینوی تند و سریع است. در ژانویه ۲۰۱۹، ایالات‌متحده آمریکا، سندی تحت‌عنوان «راهنمای تنظیمات کاربست‌های هوش مصنوعی» تصویب کرد که بیشتر آیین‌نامه‌ای بود.

چند ماه بعد، اتحادیه اروپا سند دیگری را تحت‌عنوان «توصیه‌های سرمایه‌گذاری برای هوش‌مصنوعی قابل‌اعتماد» تصویب کرد تا توصیه‌هایی برای حرکت به سمت هوش مصنوعی قابل‌اعتماد از حیث سرمایه‌گذاری ارائه دهد. در ۸آوریل همان سال، اتحادیه اروپا سند دیگری تحت‌عنوان «هوش مصنوعی قابل‌اعتماد» تصویب کرد که این بار سعی می‌کند خطوط راهنمای اخلاقی را برای قابل‌اعتمادسازی هوش مصنوعی ارائه کند. سرعت و شتاب این بازی دومینو، هرچه که ما به سمت۲۰۲۱ حرکت می‌کنیم، بیشتر می‌شود. در سپتامبر۲۰۲۱، شاهد تصویب یک سند ملی با عنوان «هنجارهای اخلاقی برای استفاده هوش مصنوعی» در جمهوری خلق چین هستیم که دقیقا یک‌ماه پس از آن، در فدراسیون روسیه هم اقدام مشابهی صورت می‌گیرد.

در فاصله روزهای ۹ تا ۲۴ نوامبر۲۰۲۱ هم توصیه‌نامه‌ای در چهل‌ویکمین کنفرانس عمومی سازمان بین‌المللی یونسکو با عنوان «توصیه‌نامه اخلاق هوش مصنوعی» تصویب می‌شود که بازتاب‌های مختلفی از سوی کشورهای مختلف ازجمله ایران داشته است. جمهوری اسلامی ایران تنها کشوری بود که درباره این توصیه‌نامه تحفظ داد و آن را به‌طور رسمی به دبیرخانه یونسکو اعلام کرد. فارغ از دغدغه‌هایی که ممکن است نهادهای مختلف کشور در مورد این سند داشته باشند، این اتفاق به‌عنوان یک واقعیت غیرقابل‌انکار در سطح جهانی در حال رخ دادن است که نمی‌توان در مقابل آن مرزهای ملی کشید. ما در این خصوص نیازمندیم که هم سند ملی خودمان را در زمینه اخلاق هوش مصنوعی داشته باشیم و هم بتوانیم سیاستگذاری مناسبی درباره سندهای جهانی داشته باشیم.

سلاح‌شدگی هوش مصنوعی

سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو به تعارض‌های ممکن و محتمل هوش مصنوعی در آینده نیز اشاره و تصریح کرد: توجه به مسئله اخلاق زمانی جدی می‌شود که در تعارض با قوانین و سیاست‌ها قرار گیرد، به‌گونه‌ای که امکان عمل کردن به هردوی آنها نباشد. درخصوص توصیه‌نامه اخلاق هوش مصنوعی یونسکو هم تعارضاتی با قوانین کشورها دیده می‌شود. ازجمله اینکه طبق قوانین کشورها، آنها باید در اعمال حاکمیت خود مستقل و مختار باشند که این توصیه‌نامه محدودیت‌هایی را بر آنها تحمیل می‌کند.

به همین دلیل، برخی از کشورها زیر بار آن نمی‌روند. از طرف دیگر، اگر همه کشورها اطلاعات‌شان را در اختیار هم بگذارند، ممکن است در نگاه اول، این اقدام دوستانه به‌نظر بیاید اما واقعیت این است که کشورهایی از این کار بیشترین سود و بهره را می‌برند که پلتفرم‌های جهانی را در اختیار دارند. موضوع تعارض قوانین با اخلاق، موضوعی است که باعث می‌شود

به‌دنبال سازوکارهایی باشیم تا دسترسی عادلانه‌تر به دستاوردهای هوش مصنوعی را برای ما فراهم کند. از دیگر تعارض‌های ممکن، مسئله تعارض اخلاق با سودطلبی اقتصادی است که در این خصوص، کمپانی‌های بزرگ، سودهای کلان خود را بر اخلاق ترجیح خواهند داد. همچنین، یکی دیگر از مسائلی که در حوزه هوش مصنوعی وجود دارد و می‌توان از آن به‌عنوان یکی از تعارض‌ها یاد کرد، مسئله نظامی‌گری یا سلاح‌شدگی هوش مصنوعی است.

یکی از نگرانی‌هایی که امروز وجود دارد، بعد نظامی هوش مصنوعی و تبدیل آن به یک سلاح نظامی است که می‌تواند روابط امنیتی در سطح جهان را دگرگون کند. لذا یکی از پرسش‌های اساسی این است که دستورالعمل‌هایی که برای کاربرد هوش مصنوعی تنظیم می‌شود، برای کاربردهای غیرنظامی هستند یا همه کاربردها ازجمله کاربرد نظامی هوش مصنوعی را هم شامل می‌شوند؟ هنوز این مسائل در توصیه‌نامه هوش مصنوعی یونسکو شکافته نشده و به همین دلیل است که می‌گوییم هنوز راه نرفته بسیار داریم.

پاکتچی در پایان با اشاره به چالش‌های موجود تأکید کرد: اینکه چگونه می‌توان تناسبی بین اخلاق هوش مصنوعی با قوانین، مقررات و سیاست‌های کشورهای مختلف برقرار و تعارض‌ها را برطرف کرد، بحث‌های جدی و حساس هستند که هنوز روی میز هستند. با توجه به حساسیت جمهوری اسلامی ایران در ارتباط با تک‌تک این موارد، انتظار می‌رود که کارشناسان و متخصصان ایرانی خیلی جدی‌تر، پیشروتر و دقیق‌تر وارد این بحث و گفت‌وگو شوند.

کاربردهای متنوع هوش مصنوعی

در ادامه محمد حسینی‌مقدم، در مقدمه سخنان خود درباره اهمیت هوش مصنوعی گفت: امروز هوش مصنوعی موردتأکید صاحب‌نظران دولتی و خصوصی و نهادهای مدنی قرار گرفته است. این تأکید یا از منظر هراس از گسترش این تکنولوژی است  یا از منظر شیفتگی به آن. صرف‌نظر از این نگاه‌ها، یک اجماع‌نظر جهانی وجود دارد و هوش مصنوعی در دستور کار کنوانسیون‌های بین‌المللی قرار گرفته است که این نشان می‌دهد هوش مصنوعی یک مسئله جاافتاده جهانی است که ما هم باید آن را در دستور کار خود قراردهیم.

هم‌اکنون، ۷۷درصد مردم جهان، از قابلیت‌های هوش مصنوعی استفاده می‌کنند که فقط ۳۳درصد از این موضوع آگاهی دارند. همچنین استفاده از آن در محیط کار یک امر رایج است که از ۱۰ درصد در سال ۲۰۱۵، به ۳۷ درصد در سال ۲۰۲۱ رسیده است. یکی از نقاط‌عطف ملموس‌شدن آن برای مردم جهان، شرایط کووید-۱۹ بود که مردم به وضوح نحوه استفاده و مبادله اطلاعات از طریق آن را دیدند. از هوش مصنوعی در دنیا استفاده‌های متنوعی می‌شود ازجمله استفاده در خودروهای خودران که تا سال۲۰۵۰، ۹۰درصد تصادفات جاده‌ای را کاهش خواهد داد.

او با اشاره به سطح بهره‌مندی جامعه علمی ایران از هوش مصنوعی افزود: نحوه رویارویی جامعه علمی ایران با هوش مصنوعی هم اهمیت دارد. در برآورد جهانی سطح بهره‌مندی از روبات در برنامه‌های آموزشی، رتبه ایران ۳ درصد بوده است. همچنین جایگاه جهانی ایران در تولید مقالات بین‌المللی در هوش مصنوعی از سال۱۹۸۰ تا ۲۰۲۰، جایگاه برجسته‌ای است که این نشان می‌دهد جامعه علمی ایران توانسته به‌رغم همه مشکلات و چالش‌ها، در تراز کشورهای صاحب این علم در تولید این علم و دانش مشارکت داشته باشد.

درخصوص کسب مهارت‌های دیجیتال هم جایگاه ایران در میانگین جهانی رو به بالاست که این هم نشان می‌دهد شهروندان ما، مهارت‌های دیجیتال را فراگرفته‌اند که این خود می‌تواند دستمایه خوبی برای تحول و دستیابی به بلوغ در حوزه هوش مصنوعی باشد. عضو هیأت‌علمی مؤسسه مطالعات فرهنگی و اجتماعی به تغییراتی که هوش مصنوعی در حوزه علم و علم‌ورزی ایجاد خواهد کرد نیز اشاره و خاطرنشان کرد: هوش مصنوعی به انحاء مختلف وضعیت علم‌ورزی را متحول خواهد کرد.

تحول در برنامه‌های پژوهشی، سرمایه‌های انسانی، به‌کارگیری سرمایه‌های فیزیکی، همکاری‌های علمی بین‌المللی، زمان پژوهش، منابع مالی آن، چگونگی ارزیابی پژوهش و چگونگی دستیابی به اهداف پژوهش، ازجمله این تحولات هستند. ستون‌های تحول هوش مصنوعی را می‌توان در قانون‌های مور (افزایش ظرفیت پردازنده)، قانون کرایدرز (افزایش امکان ذخیره بیگ دیتاها) و قانون کوپر (افزایش سرعت پردازش)، توسعه‌ الگوریتم‌های هوش مصنوعی، توسعه نرم‌افزارهای منبع باز، توسعه سخت‌افزارهای محاسباتی و دسترسی به داده‌ها برشمرد.  

برخی از این تحولات در حوزه پارادایم‌های کشف علمی صورت خواهد گرفت که در آن از پارادایم مبتنی بر theory driven research به سمت یک پارادایم مبتنی بر data driven research خواهیم رفت. یعنی از مسیر تفسیر و تبین به سمت داده‌ها و نمونه‌ها ‌گذار خواهیم کرد.
حسینی‌مقدم در پایان به ذکر چالش‌های پیش‌روی توسعه علم در سایه هوش مصنوعی پرداخت که فقدان رویکردهای نظری برای یکپارچه‌سازی داده‌ها و مدل‌های هوش مصنوعی در تحلیل کلان‌داده‌ها، شکاف میان دانشمندان و مهندسان در بهره‌مندی از هوش مصنوعی (الگوریتم، سخت‌افزار، نیروی انسانی و...)، شکاف در دسترسی به داده‌ها، تقویت فرهنگ سلبریتی در علم، حکمرانی بنگاه‌ها در پیشرفت علم و افزایش مشارکت علمی شرکت‌های بزرگ در توسعه یادگیری عمیق در برابر دانشگاه‌های نخبه، از جمله آنها بود.

مسئولیت و هوش مصنوعی

سیدعلی حسینی، سخنران سوم این نشست با اشاره به مهم‌ترین مسائل موجود در حوزه اخلاق هوش مصنوعی اظهار داشت: یکی از مهم‌ترین مسائلی که در اخلاق هوش مصنوعی مطرح است، حریم خصوصی افراد و دسترسی شرکت‌های مختلف به داده‌های افراد است که حریم خصوصی آنها را نقض می‌کند. شفافیت یا عدم‌شفافیت الگوریتم‌ها و تصمیماتی که این الگوریتم‌ها می‌گیرند، رعایت انصاف، مواسات و برابری در آموزش الگوریتم‌ها، کاربرد هوش مصنوعی در حوزه‌های نظامی به‌ویژه استفاده از ابزار نظامی هوشمند مستقل و خودکار و نهایتا مسئله مسئولیت‌پذیری، از دیگر موارد مهمی هستند که در حوزه اخلاق هوش مصنوعی همواره مطرح هستند. یکی از بحث‌های اولیه‌ای که در توسعه دادن این ماشین‌ها مطرح شد، بحث مسئولیت‌پذیری بود که چطور باید باشد و چه‌کسی باید پاسخگو باشد؛ مثلاً مسئولیت خسارت مالی افرادی که شغل‌شان را به روبات‌ها می‌بازند، با چه‌کسی است؟ و یا اینکه مسئولیت در هنگام تصادف یک ماشین‌خودران، با کیست؟ اینها ازجمله سؤالات مهمی است که در زمینه اخلاق هوش مصنوعی مطرح هستند.
او با اشاره به نقطه‌عطف توجه به مبحث اخلاق در هوش مصنوعی در اروپا اضافه کرد: یکی از نقاط‌عطف توجهی که در اروپا در قسمت‌های مختلف جامعه به مبحث اخلاق و اخلاق‌مداری در هوش مصنوعی شد، اتفاق بین فیسبوک و شرکت انگلیسی کمبریج آنالتیکا بود که در مارس۲۰۱۴ رخ داد که طی آن، داده‌های کاربران فیسبوک و حساب رأی‌دهندگان آمریکایی به عوامل روسی فروخته شد و مورد تبلیغات هدفمند قرار گرفت. این اتفاق و آبروریزی بزرگ، سروصدای زیادی ایجاد و بحث اخلاق در هوش مصنوعی را پررنگ کرد. حسینی با بیان اینکه هر کشور، شرکت و منطقه‌ای تعریف، تفسیر و روش خاص خود را دارد، حساسیت ایران در مقابل هوش مصنوعی را یک رویکرد طبیعی دانست و گفت: شرکت‌ها، مناطق و کشورها، تعاریف، تفاسیر و روش‌های خاص خود را در زمینه هوش مصنوعی دارند. لذا اگر کشوری مثل ایران هم می‌خواهد اصول و روش خود را اجرا کند، کاملاً طبیعی است و این فرصت برای او باز است. مثلاً اروپا، بیشتر روی حفظ حریم خصوصی افراد تأکید دارد اما آمریکا، بیشتر به مسائلی مثل تبعیض نژادی و جنسیتی توجه می‌کند. اگر ما هم می‌خواهیم روی هوش مصنوعی کار کنیم، باید ببینیم چه مسائلی برای ما مهم است و هوش مصنوعی می‌تواند چه خدماتی به ما ارائه دهد.
 

منبع خبر "همشهری آنلاین" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.