به گزارش ایسنا به نوشته گاردین، جاناتان هال کیسی، مدیر این نهاد مستقر درانگلیس که نقشش بررسی کفایت قوانین تروریسم است، گفت که تهدید هوش مصنوعی علیه امنیت ملی روز به روز آشکارتر می شود و در پیشبرد این فنآوری باید ملاحظات و نیات تروریستها را در نظر داشت.
به گفته جاناتان هال کیسی، در توسعه بیش از اندازه هوش مصنوعی عمدتا بر نکات بالقوه مثبت این فنآوری تمرکز شده و در این مسیر از چگونگی استفاده احتمالی تروریستها از آن برای حملات غفلت شده است.
هال میگوید: سازندگان هوش مصنوعی باید در کنار خود یک نئونازی ۱۵ ساله دو آتشه داشته باشند تا تهدیدهای بالقوه این فنآوری را بهتر درک کنند. شما باید در برابر کاری که میدانید مردم ممکن است با این فنآوری انجام دهند، دفاع جانانه داشته باشید.
دیدهبان تروریسم که بهطور مستقل به بازبینی قوانین دولت بریتانیا در زمینه تروریسم میپردازد، نگرانی فزاینده خود را از دامنه رباتهای چت هوش مصنوعی برای متقاعد کردن افراد آسیبپذیر و یا افراد دارای طیف متنوعی از عملکردهای عصبی برای انجام حملات تروریستی ابراز کرده است.
جاناتان هال در ادامه میافزاید: «تلقینپذیری انسانهای غوطهور در دنیای دیجیتال و فنآوریهای نوین نگران کننده است. این فنآوریها به کمک زبان، مخاطبان خود را به اقداماتی ترغیب میکنند. از همین رو، امنیت جامعه میتواند به شدت به خطر بیفتد.»
به گفته دیدهبان تروریسم، برای مقابله با نوع تازهای از تهدیدهای تروریستی مرتبط با هوش مصنوعی نیاز به تدوین قوانین تازهای است. از آنجایی که هوش مصنوعی میتواند در انتخاب اهداف تروریستها بهغایت کاربردی باشد، مقررات موثر و دارای ضمانت اجرا میتواند تا اندازهای خطر فزاینده سلاحهای مرگبار خودکار را مهار کند.
به نظر میرسد که سرویسهای امنیتی بهویژه نگران توانایی چترباتهای هوش مصنوعی برای پرورش کودکان هستند که در حال حاضر بخش فزایندهای از پروندههای تروریستی MI۵ هستند.
از آنجایی که به دنبال هشدارهای هفته گذشته از سوی پیشگامان هوش مصنوعی مبنی بر اینکه این فناوری می تواند بقای نسل بشر را تهدید کند، درخواست ها برای تنظیم این فناوری افزایش می یابد، انتظار می رود که نخست وزیر، ریشی سوناک، این موضوع را در سفرش به آمریکا با بایدن و شخصیت های ارشد کنگره آمریکا مطرح کند.
در بریتانیا، تلاشها برای مقابله با چالشهای امنیت ملی ناشی از هوش مصنوعی با مشارکت MI۵ و موسسه آلن تورینگ، نهاد ملی علم داده و هوش مصنوعی، تشدید میشود.
الکساندر بلانچارد، محقق اخلاق دیجیتال در برنامه دفاعی و امنیتی مؤسسه، گفت که کار این مؤسسه با سرویسهای امنیتی نشان میدهد که بریتانیا با چالشهای امنیتی ارائه شده توسط هوش مصنوعی بسیار جدی برخورد میکند. تمایل زیادی در میان سیاستگذاران دفاعی و امنیتی برای درک آنچه در حال رخ دادن است، بازیگران چگونه میتوانند از هوش مصنوعی استفاده کنند و تهدیدات چیست، وجود دارد.
فاصله میان پیشرفت فنآوریهای جدید و قوانین ناظر بر آن همواره محل بحث و نگرانیهای سازمانهای مدافع صلح و امنیت بوده است. با رشد فزاینده فنآوریها در حوزه رباتها از یکسو و از فناوریهای ارتباطی از سوی دیگر، نوع تازهای از تهدیدهای تروریستی ظهور یافته که به شدت مایه نگرانی شده است.
برای مثال دور از ذهن نیست که یک پهپاد کوچک کاملا خودکار از مکانی نامعلوم برای حمله به هدفی مشخص به پرواز درآید و با کمک فنآوری هوش مصنوعی در لحظهای مناسب هدف را شناسایی و حمله انجام شود، و هیچ اثری از خود باقی نگذارد. این حمله میتواند در روز روشن و در میان جمعیتی در میدان شهر روی دهد، طوری که هیچ کس نتواند حدس بزند هوش مصنوعی قرار است در لحظه چه تصمیمی بگیرد و چه کسی یا کسانی را هدف قرار دهد.
واقعیت این است که قوانین بازدارنده در این زمینه و دستگاههای ناظر بر چنین فنآوریهایی تاخیر نسبتا زیادی دارند.
پیش از این، تسلیحات مرگبار خودکار در نبرد اوکراین عرض اندام کرده بود و سوالهای جدی اخلاقی در مورد پیامدهای ماشین کشتار خودکار مطرح شده است.
همانطور که الکساندر بلانچارد، محقق اخلاق دیجیتال در برنامه دفاعی و امنیتی این مؤسسه میگوید، هوش مصنوعی در تعامل با محیط میتواند یاد بگیرد و خود را سازگار کند.
ریشی سوناک، نخستوزیر انگلیس گفته است که بریتانیا میخواهد به یک مرکز جهانی برای هوش مصنوعی و مقررات آن تبدیل شود و اصرار دارد که میتواند «مزایای عظیمی برای اقتصاد و جامعه» داشته باشد.
هم بلانچارد و هم هال می گویند که مسئله اصلی این است که چگونه انسان ها "استقلال شناختی" - کنترل - را بر هوش مصنوعی حفظ کنند و چگونه این کنترل در فناوری تعبیه شود.
توجه به همبودگی این سه عامل یعنی تعامل، یادگیری و سازگاری با محیط، ویژگی حیرتانگیز هوش مصنوعی نشان میدهد که بشر با چه تهدید جدی روبهروست. در کنار مزایای هوش مصنوعی، به نظر میرسد اتخاذ تدابیر نظارتی بر هوش مصنوعی از ضرورتی انکارناپذیر برخوردار است، تا این تازهترین فناروی بشری به ماری در آستین، و بلای عصر نوین تبدیل نشود.