شمشیر دولبه هوش مصنوعی برای امنیت سایبری

خبرگزاری مهر دوشنبه 22 خرداد 1402 - 13:08
بررسی تأثیر توسعه ابزارهای هوش مصنوعی بر حوزه امنیت سایبری حکایت از آن دارد که این فناوری جدید می‌تواند در آینده چهره حفاظت از داده را تغییر دهد و به منزله مدافع و مهاجم در این حوزه عمل کند.

خبرگزاری مهر، گروه فناوری‌های نوین: طی سال‌های گذشته هوش مصنوعی مولد (AI) به‌عنوان ابزاری قدرتمند و مؤثر در زمینه‌های مختلف، از جمله امنیت سایبری ظهور کرده است. این فناوری که بر اساس الگوریتم‌های یادگیری عمیق عمل می‌کند تواناهایی متعدد مانند تولید محتوای واقعی و غیرواقعی به‌صورت متن، تصویر و ویدئو دارد.

درحالی‌که هوش مصنوعی مولد نویدبخش افزایش امنیت سایبری است، قادر به ایجاد مخاطرات جدی برای این حوزه نیز هست. تکنولوژی و پیشرفت‌هایش باعث قدرتمندتر شدن مجرمان سایبری شده و خدماتی را به آن‌ها ارائه می‌دهد. یکی از این چالش‌ها استفاده از مدل‌های زبانی مانند «ChatGPT» برای نوشتن کدهای مخرب است.

۷۶ درصد از شرکت‌ها بر اساس آمار فوربس و تحقیقات شرکت بلک‌بری، هوش مصنوعی و یادگیری ماشینی را در اولویت‌های بودجه مختص فناوری اطلاعات خود قرار داده اند تا بتوانند حجم زیادی از داده‌ها را برای شناسایی و کاهش تهدیدات سایبری تجزیه تحلیل کنند؛ در نتیجه هوش مصنوعی هم برای مجرمین سایبری و هم مبارزه با جرایم سایبری ابزاری ضروری است.

دولت‌ها و شرکت‌ها برای مدیریت بهتر آینده بهتر است مخاطرات و کاربردهای هوش مصنوعی را در امنیت سایبری شناخته و راه‌هایی برای مقابله با چالش‌های آن در نظر بگیرند. در ادامه به بخشی از فرصت‌ها و مخاطرات هوش مصنوعی برای امنیت سایبری اشاره می‌کنیم.

کاربردهای هوش مصنوعی مولد در امنیت سایبری

*شناسایی و تجزیه تحلیل بدافزار

هوش مصنوعی مولد قادر است با تجزیه‌وتحلیل نمونه‌هایی از بدافزارها، روش و الگوریتم آن‌ها را دریافته و با ارائه آن به متخصصان و تحلیلگران امنیتی بسیار مؤثر عمل کند. متخصصان و تحلیلگران امنیتی با استفاده از الگوهای تحلیل شده توسط هوش مصنوعی مولد می‌توانند بدافزارها را بهتر درک کرده و اقدامات دفاعی متقابل و مؤثر و روش‌های دفاعی پیشگیرانه جدیدی را بر اساس الگوی عملکردی از بدافزارها که هوش مصنوعی به آن‌ها ارائه کرده تدوین کنند. اکثر تصمیم‌گیرندگان حوزه فناوری اطلاعات قصد دارند روی امنیت سایبری مبتنی بر هوش مصنوعی سرمایه‌گذاری کنند.

*طراحی نمونه‌های متخاصم

یکی دیگر از توانایی‌های هوش مصنوعی طراحی نمونه‌های بدافزارهای متخاصم است که به طور اختصاصی برای فریب هوش مصنوعی طراحی شده‌اند. با تولید چنین نمونه‌هایی متخصصان می‌توانند تدابیر امنیتی لازم را برای محافظت از مدل‌ها و سیستم‌های هوش مصنوعی در برابر حملات خصمانه ایجاد کنند. این تدابیر می‌تواند منجر به تقویت دفاعی و استحکام هوش مصنوعی در برابر حملات پیچیده متخاصمان و مجرمین سایبری شود.

*شکستن رمز عبور و احراز هویت

هوش مصنوعی می‌تواند برای سخت کردن تکنیک‌های شستن رمز عبور مجرمان سایبری با تحلیل و بررسی رفتار کاربران، ترکیبات رمز عبور احتمالی را در نظر گرفته و مدل‌های جدید رمز عبور که شکستن آن‌ها سخت‌تر باشد را ایجاد کرده و سیستم‌های احراز هویت قوی‌تری طراحی کند. این قابلیت‌های هوش مصنوعی می‌تواند به افزایش امنیت سایبری کمک کند.

*ارزیابی آسیب‌پذیری و تشخیص نفوذ شبکه

هوش مصنوعی می‌تواند آسیب‌پذیری‌ها را در سیستم‌های نرم‌افزاری شناسایی کرده و توصیه‌هایی برای برطرف‌کردن آن دهد و از این نظر می‌تواند از آنتی‌ویروس‌ها قدرتمندتر عمل کند؛ زیرا زمان و تلاش موردنیاز برای شناسایی و رفع نقص‌های امنیتی را کاهش می‌دهد و با عملکرد بهینه خود نسبت به ابزارهای قدیمی، وضعیت امنیتی کلی سیستم‌ها و برنامه‌ها را بهبود می‌بخشد. از طرف دیگر هوش مصنوعی رفتارهای مشکوکی که نشان‌دهنده نفوذ در شبکه است را تشخیص داده و به آن‌ها پاسخ مناسب داده و از زیر ساخت‌های حیاتی محافظت کنند. به‌عبارت‌دیگر هوش مصنوعی امکان نظارت مستمر خودکار را فراهم می‌کند که برای امنیت سایبری مدرن امری ضروری است.

خطرات و آسیب‌های هوش مصنوعی برای امنیت سایبری

* فیشینگ پیشرفته و حملات مهندسی اجتماعی

یکی از خطرات هوش مصنوعی مولد زبانی، توانایی ایجاد ایمیل‌های فیشینگ، پیام‌ها یا تماس‌های تلفنی بسیار قانع‌کننده است. این یک زنگ خطر بزرگ برای افراد سازمان و حتی دولت‌هاست زیرا مهاجمان از طریق فیشینگ می‌توانند با فریب کاربران دست به اقدامات مخرب و فاش کردن اطلاعات حساس بزنند. پیچیدگی هوش مصنوعی مولد اثربخشی مهندسی اجتماعی را تقویت کرده و مقاومت در برابر آن‌ها را سخت‌تر می‌کند. تربیت جامعه‌ای با سواد سایبری و رسانه‌ای بالا و آگاه به اصول مهندسی اجتماعی برای جلوگیری از فریب‌خوردن از ابزار فناورانه مدرن، یکی از نیازهای بشر امروز است.

*مطالب و اطلاعات جعلی عمیق

هوش مصنوعی مولد می‌تواند محتوای جعلی عمیق (deep fake) بسیار واقعی با فرمت‌های تصویر، ویدئو و صدا تولید کند. سوءاستفاده‌کنندگان با استفاده از این قابلیت هوش مصنوعی می‌توانند با انتشار اطلاعات نادرست افکار عمومی را دستکاری کرده و حتی هویت افراد را جعل کنند. دیپ‌فیک می‌تواند عواقبی شدید؛ مانند آسیب‌زدن به آبرو، سو استفاده‌های سیاسی داشته باشد و در نهایت به اعتماد عمومی خدشه‌ای جبران‌ناپذیر وارد کند.

*دورزدن سیستم‌های امنیتی سنتی

مهاجمان می‌توانند با طراحی بدافزارهایی با سیستم پیچیده، ابزارهای امنیتی سنتی مانند آنتی‌ویروس‌ها را دور بزنند و با طراحی و تولید بدافزارهایی که دائماً درحال‌توسعه و تکامل‌اند و از شناسایی طفره می‌روند، حملاتی پیچیده انجام دهند.

*پیامدهای اخلاقی و حقوقی

استفاده از هوش مصنوعی مولد در امنیت سایبری، باعث نگرانی‌هایی در مورد نقض حریم خصوصی افراد و تصمیم‌گیری‌های مغرضانه این ابزار شده است. به‌عبارت‌دیگر هوش مصنوعی مولد قادر است امنیت کاربران را در فضای سایبری تهدید کند.

لازم است تا چارچوب‌های قانونی پیرامون مسئولیت‌پذیری این ابزار جدید فناوری ایجاد شده و هم‌زمان با پیشرفت‌های هوش مصنوعی به‌روز شوند تا با ایجاد هنجارها و ضوابط ضروری، تعهدات آن را افزایش دهند.

شمشیر دولبه هوش مصنوعی برای امنیت سایبری

هوش مصنوعی و آینده امنیت سایبری

«امیرعباس رکنی»، دانشجوی دکتری امنیت ملی دانشگاه عالی دفاع ملی و پژوهشگر پژوهشگاه فضای مجازی درباره کم و کیف تأثیر هوش مصنوعی بر امنیت سایبری به خبرنگار مهر گفت: توسعه و پیشرفت مداوم هوش مصنوعی در شرایط کنونی حاکم برجهان فناوری، تأثیرات قابل‌توجهی بر حوزه امنیت سایبری گذاشته است و انتظار می‌رود این فرایند در آینده جدی‌تر و مؤثرتر به پیش برود. به‌طورکلی، باید توجه داشت که فناوری هوش مصنوعی همانند یک سکه دو رو دارد و پیشرفت‌ها و توسعه‌های آن می‌تواند منجر به شکل‌گیری مجموعه‌ای از فرصت‌ها و تهدیدهایی برای حوزه امنیت سایبری بشود.

وی افزود: تا همین جای کار هم باید اذعان داشت که هوش مصنوعی بسیاری از مفاهیم و فرایندها را در عرصه امنیت سایبری تحت تأثیر قرار داده و یک پدیده تحول‌آفرین بوده است. ما در جهان فناوری کمتر پدیده‌ای را می‌توانیم همچون هوش مصنوعی پیدا کنیم که در مدت‌زمان کوتاهی بتواند یک پارادایم مختص به خود خلق کرده و در مبانی و اصول مسلط و مستقر دگرگونی ایجاد کند. هوش مصنوعی دقیقاً همین اقدام را در سال‌های اخیر انجام داده است. هنگامی که ما در خصوص امنیت سایبری می‌خواهیم صحبت کنیم، باید توجه داشته باشیم که برخی مؤلفه‌ها نقش اساسی دارند، مثل نیروی انسانی متخصص؛ نیروی انسانی خطای انسانی را ایجاب می‌کند و به عبارتی التزام به شیء التزام به لوازم آن شیء نیز هست و یک ملازمه‌ای در اینجا وجود دارد. در حالی که می‌بینیم هوش مصنوعی با خودکار سازی بسیاری از فرایندها، نیاز به نیروی انسانی را به حداقل رسانده و عین حال خطا را نیز به حداقل می‌رساند. بر همین اساس است که می گویم هوش مصنوعی منجر به ایجاد یک تغییر پارادایم در جهان فناوری شده است.

وی در ادامه به مرور مهم‌ترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد پرداخت و افزود: اگر بخواهیم مروری بر مهم‌ترین تغییراتی که توسط هوش مصنوعی در حوزه امنیت سایبری ایجاد شده و خواهد شد، داشته باشیم، به این موارد می‌توانیم اشاره کنیم: اول؛ تشخیص و پاسخ تهدید به صورت پیشرفته. دوم ارزیابی آسیب‌پذیری به صورت بهبودیافته و سوم عملیات امنیتی خودکار.

این کارشناس امنیت فضای مجازی توضیح داد: هوش مصنوعی این پتانسیل را دارد که به‌طور قابل‌توجهی توانایی‌های تشخیص تهدید و پاسخ را بهبود بخشد. الگوریتم‌های یادگیری ماشینی می‌توانند حجم وسیعی از داده‌ها، از جمله ترافیک شبکه، رفتار کاربر و گزارش‌های سیستم را تجزیه و تحلیل کنند تا الگوها و ناهنجاری‌هایی را که ممکن است نشان‌دهنده حملات سایبری باشد، شناسایی کنند. سیستم‌های مجهز به هوش مصنوعی می‌توانند از داده‌های تاریخی بیاموزند و با تهدیدات جدید سازگار شوند و امکان تشخیص سریع‌تر و دقیق‌تر حوادث امنیتی را فراهم کنند. علاوه بر این، هوش مصنوعی می‌تواند با پیشنهاد اقدامات اصلاحی یا حتی انجام اقدامات مستقل برای مهار و کاهش تهدیدها، پاسخ به حادثه را خودکار کند.

وی درباره موضوع ارزیابی آسیب‌پذیری به صورت بهبودیافته به کمک هوش مصنوعی گفت: هوش مصنوعی می‌تواند برای شناسایی مؤثرتر آسیب‌پذیری‌ها در سیستم‌ها و شبکه‌های نرم‌افزاری استفاده شود. الگوریتم‌های هوش مصنوعی می‌توانند کد، پیکربندی‌های سیستم و شبکه را برای شناسایی نقاط ضعف احتمالی و شکاف‌های امنیتی تجزیه و تحلیل کنند. این می‌تواند به سازمان‌ها کمک کند تا وضعیت امنیتی خود را تقویت کنند.

کرمی ادامه داد: هوش مصنوعی می‌تواند عملیات امنیتی مختلف را خودکار کند، بار کاری تحلیلگران انسانی را کاهش داده و زمان پاسخگویی سریع‌تر را ممکن بسازد. برای مثال، هوش مصنوعی می‌تواند وظایفی مانند تجزیه و تحلیل گزارش، شناسایی تهدید و اسکن آسیب‌پذیری را خودکار کند. این نه تنها کارایی عملیاتی را بهبود می‌بخشد، بلکه به تحلیلگران انسانی اجازه می‌دهد تا بر چالش‌های امنیتی پیچیده‌تر و استراتژیک تر تمرکز کنند.

پژوهشگر فضای مجازی در خصوص خطراتی که هوش مصنوعی برای امنیت سایبری دارد نیز گفت: از سوی دیگر، باید توجه داشت که هوش مصنوعی می‌تواند به شکل منفی نیز امنیت سایبری را تحت تأثیر و تغییر قرار دهد، به عنوان مثال با رواج بیشتر به‌کارگیری هوش مصنوعی در امنیت سایبری، نگرانی فزاینده‌ای در مورد استفاده بالقوه از هوش مصنوعی توسط دشمنان برای انجام حملات پیچیده سایبری وجود دارد. تکنیک‌های هوش مصنوعی متخاصم را می‌توان برای فرار از تمهیدات امنیتی سنتی، مانند تولید بدافزار چندشکلی یا راه‌اندازی حملات هدفمند مهندسی اجتماعی، به کار برد. برای مقابله با این تهدیدات، دفاع‌های مبتنی بر هوش مصنوعی، از جمله سیستم‌های تشخیص نفوذ فعال، فناوری‌های فریب و مکانیسم‌های احراز هویت مبتنی بر هوش مصنوعی درحال‌توسعه هستند.»

وی ضمن اشاره به پیامدهای اخلاقی و ملاحظات حریم خصوصی در این حوزه توضیح داد: پیامدهای اخلاقی و ملاحظات حریم خصوصی را نیز باید مورد توجه قرار داد. افزایش اتکا به هوش مصنوعی در امنیت سایبری نگرانی‌های اخلاقی و چالش‌های حریم خصوصی را افزایش می‌دهد. سیستم‌های مجهز به هوش مصنوعی اغلب برای آموزش و تجزیه و تحلیل نیاز به دسترسی به حجم زیادی از داده‌ها دارند. اطمینان از حفظ حریم خصوصی و امنیت این داده‌ها برای جلوگیری از دسترسی یا سوءاستفاده غیرمجاز بسیار مهم است. علاوه بر این، ملاحظات اخلاقی در مورد استفاده از هوش مصنوعی در تصمیم‌گیری‌های مرتبط با امنیت، مانند اقدامات پاسخ خودکار به حادثه یا اشتراک‌گذاری اطلاعات تهدید مبتنی بر هوش مصنوعی وجود دارد.

وی در ادامه گفت: عدم تفسیرپذیری نیز از دیگر تأثیرات منفی هوش مصنوعی در حوزه امنیت سایبری است. برخی از الگوریتم‌های هوش مصنوعی، به‌ویژه مدل‌های یادگیری عمیق، به‌عنوان جعبه‌های سیاه عمل می‌کنند و درک و توضیح فرآیند تصمیم‌گیری آن‌ها را به چالش می‌کشند. این عدم تفسیرپذیری می‌تواند مانع اعتماد و پذیرش سیستم‌های هوش مصنوعی در سناریوهای تصمیم‌گیری امنیتی و حیاتی شود.

پژوهشگر پژوهشگاه فضای مجازی افزود: به طور کلی، باید بگویم که اتکای بیش‌ازحد به هوش مصنوعی می‌تواند پاشنه آشیل امنیت سایبری باشد. در حالی که هوش مصنوعی می‌تواند امنیت سایبری را تا حد زیادی افزایش دهد، اتکای بیش‌ازحد به آن بدون نظارت انسانی می‌تواند مخاطره‌آمیز باشد. تخصص انسانی هنوز در درک زمینه تهدیدها، انطباق با تکنیک‌های حمله در حال تکامل و تصمیم‌گیری‌های حیاتی، ضروری است. به همین دلیل است که صاحب‌نظران این حوزه تأکید می‌کنند که برای استفاده از فرصت‌های ارائه شده توسط هوش مصنوعی در امنیت سایبری و درعین‌حال کاهش خطرات، اتخاذ یک رویکرد کل‌نگرانه بسیار مهم است. این شامل ارزیابی منظم سیستم‌های هوش مصنوعی برای شناسایی و کاهش سوگیری‌ها و آسیب‌پذیری‌ها، اطمینان از شفافیت و تفسیرپذیری مدل‌های هوش مصنوعی، حفاظت از حریم خصوصی داده‌ها و حفظ تعادل بین هوش انسانی و قابلیت‌های هوش مصنوعی است.

تنظیم‌گری هوش مصنوعی و امنیت سایبری

رکنی با اشاره به ابزارهای متعدد سیاست‌گذاران و قانون‌گذاران برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری، گفت: سیاست‌گذاران و قانون‌گذاران ابزارهای متعددی برای کاهش مخاطرات مرتبط با توسعه هوش مصنوعی برای امنیت سایبری در اختیار دارند. این ابزارها می‌توانند به ایجاد دستورالعمل‌ها، استانداردها و چارچوب‌های قانونی کمک کنند که استقرار مسئولانه و ایمن هوش مصنوعی را ترویج می‌کنند. با نگاهی به تجربیات بسیاری از کشورهای پیشگام در حوزه هوش مصنوعی، می‌توانیم چندین ابزار کلیدی را به منظور تنظیم‌گری هوش مصنوعی شناسایی کنیم.

وی در ادامه مهم‌ترین ابزارهای یاد شده را چنین برشمرد:

«قانون و مقررات: قانون‌گذاران می‌توانند قوانین و مقرراتی را ایجاد کنند که به طور خاص به توسعه و استقرار هوش مصنوعی در زمینه امنیت سایبری می‌پردازد. این مقررات می‌تواند جنبه‌های مختلفی از جمله حفظ حریم خصوصی داده‌ها، الزامات امنیتی، پاسخگویی، شفافیت و ملاحظات اخلاقی را پوشش دهد. چنین قوانینی تضمین می‌کند که سیستم‌های هوش مصنوعی به‌گونه‌ای توسعه یافته و مورد استفاده قرار می‌گیرند که از منافع افراد و سازمان‌ها محافظت می‌کند.

به‌روزرسانی و تکمیل قوانین ناظر بر حفاظت از داده‌ها و حریم خصوصی: قانون‌گذاران می‌توانند قوانین حفاظت از داده‌ها و حریم خصوصی را برای محافظت از اطلاعات شخصی و حساس مورد استفاده در سیستم‌های هوش مصنوعی به‌روزرسانی و تقویت کنند. این قوانین می‌توانند دستورالعمل‌هایی را برای جمع‌آوری، ذخیره‌سازی، پردازش و اشتراک‌گذاری داده‌ها ایجاد کنند و اطمینان حاصل کنند که سیستم‌های هوش مصنوعی بر اساس حریم خصوصی و رضایت داده‌ها ساخته شده‌اند.

برنامه‌های صدور گواهینامه: تنظیم‌کننده‌ها می‌توانند برنامه‌های صدور گواهینامه یا چارچوب‌های انطباق را برای سیستم‌های هوش مصنوعی مورد استفاده در امنیت سایبری توسعه دهند. این برنامه‌ها می‌توانند استانداردها و الزامات امنیتی، حریم خصوصی و ملاحظات اخلاقی را تعیین کنند. با تأیید سیستم‌های هوش مصنوعی که این استانداردها را برآورده می‌کنند، تنظیم‌کننده‌ها می‌توانند اطمینان حاصل کنند که سازمان‌ها شیوه‌های هوش مصنوعی مسئولانه را اتخاذ می‌کنند.

دستورالعمل‌های اخلاقی و کدهای رفتاری: تنظیم‌گران می‌توانند با کارشناسان صنعت هوش مصنوعی همکاری کنند تا دستورالعمل‌های اخلاقی و کدهای رفتاری را برای توسعه‌دهندگان و کاربران هوش مصنوعی در زمینه امنیت سایبری ایجاد کنند. این دستورالعمل‌ها می‌توانند شیوه‌های هوش مصنوعی، از جمله شفافیت، انصاف، پاسخگویی و حمایت از حقوق بشر را مشخص کنند. پیروی از چنین دستورالعمل‌هایی می‌تواند به کاهش خطرات مرتبط با توسعه و استقرار هوش مصنوعی کمک کند.

مکانیزم‌های حسابرسی و پاسخگویی: قانون‌گذاران می‌توانند مکانیزم‌های حسابرسی و پاسخگویی را برای اطمینان از انطباق با مقررات و استانداردهای مرتبط با هوش مصنوعی ایجاد کنند. این مکانیسم‌ها می‌توانند شامل ارزیابی‌های منظم، ممیزی‌های شخص ثالث و الزامات گزارش‌دهی برای ارزیابی عملکردهای امنیتی و اخلاقی سیستم‌های هوش مصنوعی مورد استفاده در امنیت سایبری باشند.»

وی در پایان تأکید کرد که تعادل بین ایجاد نوآوری و محافظت در برابر خطرات مرتبط با هوش مصنوعی نکته‌ای بسیار حائز اهمیت برای قانون‌گذاران است و گفت: با به کارگیری این ابزارها، آن‌ها می‌توانند محیطی ایجاد کنند که توسعه هوش مصنوعی مسئولانه را ارتقا دهد، از حریم خصوصی و امنیت محافظت کند و اعتماد به فناوری‌های هوش مصنوعی مورد استفاده در امنیت سایبری را تقویت کند.

شمشیر دولبه هوش مصنوعی برای امنیت سایبری

کنفرانس امنیت سایبری

به گزارش مهر، سال گذشته در حاشیه کنفرانس سالانه امنیت سایبری سانفرانسیسکو (RSA)، شرکت فناوری اطلاعات (Zscaler) از هوش مصنوعی به‌عنوان عاملی در افزایش ۴۷ درصدی حملات فیشینگ در سال ۲۰۲۲ یادکرد. کارشناسان، مدیران و مقامات دولتی نگران‌اند که این تازه آغاز راه است، زیرا مهاجمان می‌توانند از هوش مصنوعی برای نوشتن نرم‌افزارهایی استفاده کنند که به روش‌های جدید وارد شبکه سازمان شده و از طریق فرایندهایی که طبیعی به نظر می‌رسند، داده‌ها را به‌صورت غیرقانونی به بیرون منتقل کنند.

کارشناسان در این کنفرانس همچنین تأکید داشتند که هوش مصنوعی به بالابردن امنیت سیستم‌های سازمان‌ها نیز کمک می‌کند. این فناوری با بررسی ناهنجاری‌ها و جستجوی آسیب‌پذیری‌های ناشناخته موجب شناسایی بهتر و در نتیجه اصلاح نقطه‌ضعف‌ها می‌شود.

چه اقشاری باید به فکر اقدامات جدی باشند؟

شناخت خطرات و مزایای بالقوه هوش مصنوعی در امنیت سایبری برای صاحبان کسب‌وکار، دولت‌ها و سازمان‌های مبارزه با جرایم سایبری بسیار مهم است. با گسترش استفاده از هوش مصنوعی و محبوبیت مدل‌های زبانی مولد مانند «ChatGPT» بین مردم و چشم‌اندازهایی مانند هوشمند کردن شهرها، مدیران باید پیامدهای اخلاقی، سایبری و اجتماعی راه‌حل‌های مبتنی بر هوش مصنوعی را در نظر بگیرند. درحالی‌که هوشیاری در برابر مورد حمله هوش مصنوعی و ابزار و تسلیحات آن قرارگرفتن بسیار مهم است، به همان اندازه یا حتی بیشتر از آن مهم است که پتانسیل هوش مصنوعی در بهبود امنیت سایبری را در نظر گرفته و نفع کل جامعه از آن استفاده کنیم.

منبع خبر "خبرگزاری مهر" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.