تأثیر محتوای جعلی مبتنی بر هوش مصنوعی بر انتخابات

خبرگزاری مهر پنج شنبه 31 خرداد 1403 - 08:44
به عقیده بسیاری از کارشناسان، در شرایط کنونی، محتوای جعلی مبتنی بر هوش مصنوعی یکی از بزرگ‌ترین تهدیدات برای دموکراسی و انتخابات سالم به شمار می‌رود.

به گزارش خبرنگار مهر؛ در سال‌های اخیر، توسعه و پیشرفت هوش مصنوعی به‌ویژه در حوزه تولید محتوا، فرصت‌ها و چالش‌های جدیدی را برای جوامع به همراه داشته است. یکی از مهم‌ترین نگرانی‌ها در این زمینه، مسئله تولید محتوای جعلی یا دیپ‌فیک (Deepfake) است. محتوای جعلی مبتنی بر هوش مصنوعی می‌تواند شامل تصاویر، ویدئوها، و حتی متن‌های تولید شده توسط ماشین باشد؛ محتوایی که به گونه‌ای طراحی شده‌اند تا واقعی به نظر برسند و مخاطبان را به اشتباه بیاندازند. این پدیده جدید، توانایی‌ها و قدرت‌های بی‌سابقه‌ای به دست افراد و گروه‌هایی داده است که قصد دارند از اطلاعات نادرست و گمراه‌کننده برای اهداف خود استفاده کنند.

تأثیر این نوع محتوا در عرصه‌های مختلف جامعه به‌ویژه در حوزه انتخابات بسیار چشمگیر و نگران‌کننده است. انتخابات، به عنوان یکی از بنیادی‌ترین ارکان دموکراسی، نیازمند اعتماد عمومی و اطلاعات صحیح است. فرآیند انتخاباتی که بر مبنای اطلاعات نادرست و جعلی انجام شود، می‌تواند به تضعیف اصول دموکراتیک و اعتماد عمومی منجر گردد. محتوای جعلی می‌تواند به راحتی شخصیت‌ها و وقایع را تحریف کرده و با القای اطلاعات نادرست، رأی‌دهندگان را به تصمیم‌گیری‌های اشتباه وادار کند.

یکی از خطرات جدی در این زمینه، استفاده از دیپ‌فیک‌ها برای تخریب شخصیت‌های سیاسی است. با ایجاد ویدئوها و صداهای جعلی که به نظر می‌رسد از زبان نامزدهای انتخاباتی یا شخصیت‌های سیاسی منتشر شده‌اند، می‌توان به راحتی اعتبار آنها را زیر سوال برد و افکار عمومی را منحرف کرد. این موضوع نه تنها منجر به ایجاد سردرگمی در میان رأی‌دهندگان می‌شود، بلکه می‌تواند اعتماد عمومی به فرآیندهای انتخاباتی را نیز به شدت کاهش دهد.

علاوه بر این، استفاده از محتوای جعلی برای تقویت کمپین‌های اطلاعات غلط و پراکنده‌کردن شایعات نیز از دیگر مشکلات جدی است. در دنیای امروز که رسانه‌های اجتماعی به سرعت اطلاعات را منتشر می‌کنند، این گونه محتواها می‌توانند به سرعت و بدون امکان کنترل، در میان میلیون‌ها نفر گسترش یابند. این مسئله به نوبه خود، به ایجاد یک فضای پر از اطلاعات نادرست و گمراه‌کننده منجر می‌شود که رأی‌دهندگان را از دسترسی به حقایق محروم می‌کند.

در این گزارش به مناسبت نزدیک شدن به ایام برگزاری چهاردهمین دوره انتخابات ریاست جمهوری ایران، به بررسی ابعاد مختلف تأثیر محتوای جعلی مبتنی بر هوش مصنوعی بر انتخابات خواهیم پرداخت. باتوجه به پیچیدگی و اهمیت این مسئله، نیاز است که همه افراد و نهادهای مرتبط به تلاش‌های مشترکی برای مقابله با این تهدیدات بپردازند و با ایجاد سازوکارهای مناسب، از صحت و سلامت فرآیندهای انتخاباتی محافظت کنند.

تأثیر محتوای جعلی مبتنی بر هوش مصنوعی بر انتخابات

۱. تضعیف اعتماد عمومی

اعتماد عمومی به عنوان یکی از مهم‌ترین ارکان دموکراسی، زمانی که در معرض اطلاعات نادرست و جعلی قرار گیرد، به شدت آسیب می‌بیند. محتوای جعلی می‌تواند تصویر نامزدهای انتخاباتی و سیاستمداران را تغییر داده و با انتشار اطلاعات گمراه‌کننده، رأی‌دهندگان را نسبت به صحت و سلامت انتخابات دچار تردید کند. این تضعیف اعتماد ممکن است به کاهش مشارکت عمومی در انتخابات منجر شود، چرا که شهروندان ممکن است احساس کنند که رأی آنها تأثیری نخواهد داشت و انتخابات تحت تأثیر اطلاعات نادرست برگزار می‌شود.

۲. ایجاد سردرگمی اطلاعاتی

در عصر اطلاعات، دستیابی به اخبار و اطلاعات دقیق و صحیح اهمیت زیادی دارد. اما محتوای جعلی مبتنی بر هوش مصنوعی می‌تواند به سرعت در رسانه‌های اجتماعی و سایر بسترهای ارتباطی گسترش یابد و فضای اطلاعاتی را آلوده کند. این امر باعث می‌شود که رأی‌دهندگان در تشخیص حقیقت از دروغ دچار مشکل شوند و نتوانند تصمیم‌گیری‌های آگاهانه‌ای انجام دهند. این سردرگمی اطلاعاتی می‌تواند به نفع افرادی تمام شود که قصد دارند با انتشار اطلاعات نادرست، افکار عمومی را به سمت خاصی هدایت کنند.

۳. تقویت کمپین‌های اخبار جعلی

کمپین‌های اخبار جعلی همواره یکی از ابزارهای مؤثر در جنگ‌های اطلاعاتی بوده‌اند. با ظهور هوش مصنوعی و قابلیت‌های پیشرفته‌ای که این فناوری در تولید محتوای جعلی دارد، این کمپین‌ها به سطح جدیدی از تأثیرگذاری رسیده‌اند. دیپ‌فیک‌ها می‌توانند به ایجاد و تقویت شایعات و اطلاعات نادرست کمک کنند و این اطلاعات به سرعت در فضای مجازی منتشر شده و بر افکار عمومی تأثیر بگذارند. این کمپین‌ها می‌توانند به تخریب شخصیت‌های سیاسی، تغییر نتایج انتخابات، و ایجاد تفرقه در میان مردم منجر شوند.

هوش مصنوعی، معضلی برای سلامت انتخابات در آمریکا

بر اساس گزارش‌های منتشر شده طی دو سال اخیر، با داغ شدن تنور انتخابات ۲۰۲۴ آمریکا، استفاده از فناوری دیپ‌فیک به شکلی نگران‌کننده افزایش یافته و به لطف فناوری‌های جدید، تولید تصاویر جعلی آسان‌تر از همیشه شده است.

وبگاه خبری نیویورک تایمز، طی گزارش در تاریخ ۸ ژوئن ۲۰۲۳، مدعی شد که کمپین ران دیسانتیس، فرماندار ایالت فلوریدای آمریکا و نامزد انتخابات ریاست جمهوری این کشور، با انتشار تصاویر جعلی از دونالد ترامپ در توئیتر، به او حمله کرده است. کارشناسان در آن بازه زمانی اعلام کردند که این تصاویر با استفاده از فناوری دیپ‌فیک مبتنی بر هوش مصنوعی تولید شده‌اند. پیش از این ترامپ نیز در برخی موارد از محتوای مشابه برای تخریب بایدن استفاده کرده بود.

با این وجود، استفاده از هوش مصنوعی برای تأثیرگذاری بر نتایج، صرفاً به محتوای جعلی مبتنی بر هوش مصنوعی در قالب ویدئو محدود نمی‌شود. وبگاه اخبار فناوری گیزمودو نیز با انتشار مطلبی در تاریخ ۲ فوریه ۲۰۲۴، از ممنوعیت تماس تلفنی دیپ‌فیک در تبلیغات انتخاباتی آمریکا در پی افزایش تماس‌های تلفنی جعلی در نیوهمپشایر خبر داد. این خبر پس از آن منتشر شد که گروهی سعی داشتند، با جعل تماس تلفنی جو بایدن، رئیس جمهور آمریکا، انتخابات مقدماتی حزب دموکرات در ایالت نیوهمپشایر را مختل کنند.

جسیکا روزن وورسل، رئیس کمیسیون ارتباطات فدرال، طی اظهاراتی در این خصوص اعلام کرد: «تصاویر و شبیه‌سازی صوتی ایجاد شده توسط هوش مصنوعی با فریب دادن افراد سردرگمی ایجاد می‌کنند. به همین دلیل کمیسیون تجارت فدرال اقداماتی انجام می‌دهد تا این فناوری نوظهور طبق قوانین موجود، ممنوع شود.»

علاوه بر موارد ذکر شده، هوش مصنوعی همچنین می‌تواند به طور دقیق مخاطبان را هدف قرار دهد و پیام‌های تبلیغاتی را به گروه‌های خاص ارسال کند. این روش به کمپین‌ها اجازه می‌دهد که پیام‌های خاصی را به گروه‌های متفاوتی از رای‌دهندگان ارسال کنند و یا به طور مخفیانه رای‌دهندگان مخالف را از شرکت در انتخابات منصرف کنند. به عنوان مثال، ربات‌های فعال در رسانه‌های اجتماعی توانسته‌اند در انتخابات گذشته آمریکا و فرانسه با انتشار پیام‌های هدفمند در شبکه‌های اجتماعی، فضای سیاسی را به شدت تحت تأثیر قرار دهند.

راهکارهای مقابله با محتوای جعلی مبتنی بر هوش مصنوعی

۱. آموزش و افزایش آگاهی عمومی

یکی از مهم‌ترین راهکارها برای مقابله با محتوای جعلی، آموزش و افزایش آگاهی عمومی است. شهروندان باید از وجود این نوع محتوا و نحوه شناسایی آن آگاه شوند. برگزاری کارگاه‌ها، تولید محتوای آموزشی، و استفاده از رسانه‌ها برای اطلاع‌رسانی در این زمینه می‌تواند به افزایش سطح آگاهی عمومی کمک کند.

۲. تقویت قوانین و مقررات

قوانین و مقررات مرتبط با انتشار اطلاعات نادرست و جعلی باید تقویت شوند. نهادهای قانونی باید با جدیت بیشتری به مبارزه با انتشار محتوای جعلی بپردازند و برای افرادی که به طور عمدی این نوع محتوا را منتشر می‌کنند، مجازات‌های مناسبی تعیین کنند. همچنین باید قوانین بین‌المللی برای مقابله با این مشکل تدوین و اجرا شوند تا کشورها بتوانند به صورت هماهنگ با این تهدیدات مقابله کنند.

۳. استفاده از فناوری برای شناسایی محتوای جعلی

فناوری‌های نوین می‌توانند به شناسایی و تشخیص محتوای جعلی کمک کنند. توسعه الگوریتم‌ها و ابزارهای پیشرفته‌ای که قادر به شناسایی محتوای جعلی باشند، می‌تواند به کاهش انتشار این نوع محتوا کمک کند. همکاری بین شرکت‌های فناوری و نهادهای دولتی در این زمینه بسیار مهم است تا بتوانند راه‌حل‌های مؤثری برای مقابله با محتوای جعلی ارائه دهند.

۴. افزایش شفافیت در فرآیندهای انتخاباتی

افزایش شفافیت در فرآیندهای انتخاباتی می‌تواند به کاهش تأثیر محتوای جعلی کمک کند. ارائه اطلاعات دقیق و به موقع به شهروندان، استفاده از سیستم‌های رأی‌دهی امن و قابل اعتماد، و ایجاد سازوکارهایی برای نظارت بر انتخابات از جمله اقداماتی است که می‌تواند به افزایش اعتماد عمومی و کاهش تأثیر محتوای جعلی کمک کند.

اقدامات حقوقی در راستای مبارزه با تأثیرگذاری هوش مصنوعی بر انتخابات

بسیاری از کشورهای جهان، از جمله ایران، ایالات متحده، بریتانیا، هند، روسیه و اتحادیه اروپا همگی در سال ۲۰۲۴، انتخابات‌هایی را پیش‌رو دارند که تأثیر عمیقی بر شرایط جهان تا پایان این دهه خواهد داشت. در همین راستا تنظیم‌گران سراسر جهان تلاش دارند که پیش از برگزاری انتخابات، قوانین جامعی را برای مدیریت استفاده از فناوری هوش مصنوعی در فرایند انتخابات تدوین کنند.

یکی از اقدامات پیشنهادی استفاده از علائم نشان‌دهنده ماهیت محتوا یا واترمارک است. واترمارک به کاربران اطلاع می‌دهد که یک محتوا با استفاده از هوش مصنوعی تولید شده است. به عنوان مثال، دولت چین از ابتدای سال گذشته میلادی با معرفی قوانینی که ثبت واترمارک بر محتوای دیپ‌فیک را دربرداشت، گامی بلند در زمینه تنظیم‌گری این فناوری برداشت. با این حال، طیف گسترده‌ای از کارشناسان بر این باورند که این دست اقدامات اگرچه لازم؛ اما کافی نخواهد بود؛ زیرا بسیاری از ابزارهای آنلاین می‌توانند، واترمارک را حذف کنند.

این در حالی است که بسیاری از کارشناسان، اقدامات حقوقی دولت‌ها برای مبارزه با گسترش فزاینده محتوای جعلی مبتنی بر هوش مصنوعی را کافی نمی‌دانند و معتقدند که تحقق این هدف تنها با مشارکت همه ذی‌نفعان میسر است.

از همین روی، توافقات دو و چندجانبه بسیاری میان ذی‌نفعان این حوزه، در طول سال‌های اخیر صورت گرفته است. وبگاه خبری رویترز، طی گزارشی در تاریخ ۱۶ فوریه ۲۰۲۴ اعلام کرد که گروهی متشکل از ۲۰ شرکت فناوری قصد دارند در زمینه جلوگیری از تداخل محتوای جعلی مبتنی بر هوش مصنوعی در انتخابات کشورهای مختلف جهان با یکدیگر همکاری کنند. این توافق شامل تعهداتی برای همکاری در توسعه ابزارهای شناسایی تصاویر، ویدئو و صداهایی است که هوش مصنوعی آن‌ها را تولید می‌کند. از سوی دیگر این توافق در پی ایجاد کمپین‌های آگاهی عمومی برای آموزش تشخیص محتوای فریبنده به رأی‌دهندگان و… است.

از سوی دیگر، بسیاری از شرکت‌های سازنده و عرضه کننده سرویس‌های هوش مصنوعی نیز به صورت مستقل تدابیری را برای مقابله با پدیده تأثیرگذاری بر انتخابات اتخاذ کرده‌اند. شرکت گوگل در ماه مارس ۲۰۲۴ اعلام کرد که محدودیت‌هایی را در پاسخ‌های چت‌بات «Gemini» به سوالات مربوط به انتخابات در اقصی نقاط جهان اعمال می‌کند. این شرکت پیش‌تر و در ماه دسامبر سال گذشته محدودیت‌هایی را در داخل ایالات متحده وضع و از اجرای این محدودیت‌ها تا پیش از انتخابات این کشور خبر داد.

سخن پایانی

به عقیده بسیاری از کارشناسان، در شرایط کنونی، محتوای جعلی مبتنی بر هوش مصنوعی یکی از بزرگ‌ترین تهدیدات برای دموکراسی و انتخابات سالم به شمار می‌رود. تأثیرات گسترده این نوع محتوا بر اعتماد عمومی، سردرگمی اطلاعاتی و تقویت کمپین‌های اطلاعات غلط نشان‌دهنده ضرورت اقدام فوری و هماهنگ برای مقابله با این تهدیدات است. با آموزش و افزایش آگاهی عمومی، تقویت قوانین و مقررات، استفاده از فناوری‌های نوین برای شناسایی محتوای جعلی و افزایش شفافیت در فرآیندهای انتخاباتی، می‌توان به حفظ صحت و سلامت انتخابات و تقویت اعتماد عمومی کمک کرد.

در چنین وضعیتی و با توجه به تهدیدات گسترده و جدی محتوای جعلی مبتنی بر هوش مصنوعی، لازم است که همه افراد و نهادهای مرتبط به تلاش‌های مشترکی برای مقابله با این تهدیدات بپردازند. با آموزش و افزایش آگاهی عمومی، تقویت قوانین و مقررات، استفاده از فناوری‌های نوین، افزایش شفافیت در فرآیندهای انتخاباتی و تشویق به تحقیقات بیشتر، می‌توان به حفظ صحت و سلامت انتخابات و تقویت اعتماد عمومی کمک کرد. تنها از طریق این اقدامات مشترک و هماهنگ است که در آستانه برگزاری چهاردهمین انتخابات ریاست جمهوری ایران می‌توان به مقابله مؤثر با این چالش پیچیده و حفظ اصول دموکراسی پرداخت.

منبع خبر "خبرگزاری مهر" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.