هوش مصنوعی چه خطر‌هایی دارد؟

خبرگزاری میزان شنبه 23 اسفند 1399 - 11:28
هوش مصنوعی اگر چه کارکرد‌های مفید زیادی برای بشر داشته، اما به نظر می‌رسد خطر‌هایی هم دارد.

خبرگزاری میزان - روزنامه خراسان نوشت: هم اکنون هوش مصنوعی یکی از بزرگ‌ترین ابزار‌های پیشرفت در جهان به شمار می‌رود. این دستاورد توانسته تحول بزرگی در صنایع ایجاد کند، ولی این تکنولوژی، با همه دستاوردهایش هنوز گام‌های نخست را طی می‌کند و به همین دلیل خطا‌های زیادی دارد و ممکن است خطراتی را هم برای بشر به همراه داشته باشد. به جز خطراتی که خود هوش مصنوعی دارد، استفاده‌های نادرست از آن هم می‌تواند برای نسل بشر خطر آفرین شود. امروز باهم برخی از خطراتی را که هوش مصنوعی می‌تواند برای انسان به همراه داشته باشد، مرور می‌کنیم.

هوش مصنوعی خیلی ساده گول می‌خورد

با وجود پیشرفت چشمگیر سیستم بینایی ماشین‌های هوشمندطی سال‌های اخیر، همچنان احتمال بروز خطا‌های جدی توسط آن وجود دارد. این خطا‌ها آن قدر زیاد است که می‌تواند رانندگی با خودرو‌های خودران را بسیار خطرناک کند. به طور مثال روی یک سیب نوشته اند آی پد و هوش مصنوعی ۹۹ درصد آن را آی پد تشخیص داده است. البته این خطا‌ها به صورت طبیعی و با عکس‌های معمولی هم رخ داده است که باعث نگرانی بیشتر می‌شود، چون نشان می‌دهد احتمال بروز خطا‌های واقعی و برنامه ریزی نشده در چنین سیستم‌هایی وجود دارد.

محققانی از دانشگاه‌های برکلی، واشنگتن و شیکاگو، دیتابیسی از ۷۵۰۰ عکس متضاد طبیعی را با چندین سیستم بینایی ماشین امتحان کردند و متوجه شدند دقتشان بیش از ۹۰ درصد افت می‌کند و در برخی موارد نرم افزار تنها قادر به تشخیص ۲ تا ۳ درصد تصاویر است. برای مثال در عکس‌های زیر، هوش مصنوعی از چپ به راست سوژه تصاویر را راسو، موز، شیر دریایی و دستگیره آشپزخانه تشخیص داده این در حالی است که دیدن سنجاقک در این تصاویر برای ما انسان‌ها بسیار ساده است.

چنگ‌اندازی هوش مصنوعی به حریم خصوصی

جدای از خطر تشخیص اشتباه هوش مصنوعی باید به یکی دیگر از خطرات هوش مصنوعی اشاره کنیم. حریم خصوصی از ابتدایی‌ترین حقوق بشر است. با این همه، ممکن است چنین مفهومی، در آینده‌ای نه چندان دور، به دلیل استفاده نادرست از فناوری هوش مصنوعی کاملا پایمال شود. امروزه، به لطف پیشرفت در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است.

با فناوری تشخیص چهره، شناسایی شما در انبوهی از جمعیت به سادگی امکان‌پذیر است و برخی دوربین‌های امنیتی در برخی کشور‌ها به این فناوری مجهز هستند. توانایی گردآوری داده‌های هوش مصنوعی این امکان را برای وب‌سایت‌های فراهم آورنده و شبکه‌های مختلف اجتماعی به وجود می‌آورد که یک جدول زمانی از فعالیت‌های روزانه شما را در اختیار داشته باشند. البته در گزارشی در همین صفحه از اشتباهات نژاد پرستانه‌ای نوشته ایم که هوش مصنوعی در تشخیص چهره تاکنون داشته است.

جنگ روبات‌های سرباز

روبات‌های کشنده، روبات‌های سربازی هستند که می‌توانند مطابق برنامه از پیش تعیین شده هدف خود را جست‌وجو کنند یا به صورت کاملا مستقل عملیات هدف گذاری را انجام دهند. طبق گزارش ها، کمابیش تولید چنین روبات‌هایی در دستور کار همه کشور‌های پیشرفته قرار گرفته است. برپایه گفته‌های یک مقام ارشد نظامی چینی، پیش بینی شده جنگ‌های آینده به دست انسان انجام نمی‌شود بلکه گرداننده آن‌ها روبات‌های سرباز خواهند بود. به کارگیری چنین جنگ‌افزارهایی، از دیگر نگرانی‌های موجود در زمینه هوش مصنوعی است. چه می‌شود اگر این روبات‌ها سرکشی کنند و کار‌های خطرآفرینی انجام دهند یا اگر نتوانند میان اهداف خود و افراد بی‌گناه تمیز قایل شوند؟ در این حالت، چه کسی پاسخگوی این پیشامد خواهد بود؟

هوش مصنوعی و از بین رفتن شغل انسان‌ها

براساس گزارش منتشر شده توسط سازمان جهانی Mckinsey، حدود۸۰۰ میلیون کار و پیشه در سراسر جهان تا سال ۲۰۳۰ توسط هوش مصنوعی انجام خواهد شد. حال این پرسش به وجود می‌آید چه بر سر انسان‌هایی خواهد آمد که قبلا این ۸۰۰ میلیون شغل را داشته اند؟ البته در این میان برخی بر این باورند که شغل‌های جدید بسیاری به خاطر وجود هوش مصنوعی ایجاد خواهند شد، بنابراین، یک ترازی بین مشاغل از دست رفته و مشاغل جدید ایجاد می‌شود. این افرادبر این باورند که بعد از این، مردم به جای انجام پیشه‌های زمان‌بر و سخت، زمان بیشتری را برای انجام کار‌های مهم و گذراندن وقت با دوستان و خانواده‌هایشان خواهند داشت.

استفاده تروریستی از هوش مصنوعی

درحالی که هوش مصنوعی می‌تواند تا اندازه چشم‌گیری در انجام کار‌های سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل می‌تواند در دست افراد بی صلاحیت قرار گیرد و کمک بزرگی برای تروریست‌ها در انجام حملات دهشتناک باشد. هم اکنون، برخی از بنگاه‌های تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیما‌های بدون سرنشین بهره‌برداری می‌کنند. ISIS (داعش) نخستین حمله پهپادی موفق خود را در سال ۲۰۱۶ انجام داد که منجر به کشته شدن دو نفر در عراق شد. این مسئله اهمیت وضع قوانینی سخت‌گیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر می‌کند.

تاثیر تعصبات نژاد پرستانه بر هوش مصنوعی

حقیقت تلخی وجود دارد که گهگاه آدمی درخصوص یک مذهب، باور، ملت یا نژاد تعصباتی خشمگینانه و گاهی بی‌رحمانه دارد. چنین تعصباتی کاملا ناآگاهانه نیز می‌تواند توسط افرادی متعصب به سامانه‌های هوش مصنوعی (که به دست انسان گسترش داده می‌شوند) وارد و باعث سوگیری‌های نادرستی شود. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است.

این الگوریتم با توجه به شمار زیاد رزومه کاری کارمندان استخدام شده در ۱۰ سال گذشته، آموزش داده و طراحی شده است. از آن جا که بیشتر کارمندان، آقایان بودند، در این الگوریتم مرد‌ها ارزشمندتر از زنان در نظر گرفته شده‌اند. در نمونه دیگری گوگل با به کارگیری فناوری پردازش تصویر، عکس‌های دو فرد با نژاد آفریقایی-آمریکایی را با تگ «گوریل» ذخیره کرده که نشانه واضح از تعصب و خشک‌اندیشی نژادی است.

انتهای پیام/
خبرگزاری میزان: انتشار مطالب و اخبار تحلیلی سایر رسانه‌های داخلی و خارجی لزوماً به معنای تایید محتوای آن نیست و صرفاً جهت اطلاع کاربران از فضای رسانه‌ای منتشر می‌شود.

منبع خبر "خبرگزاری میزان" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.