به گزارش خبرآنلاین به نقل از گاردین، کارشناسان هشدار داده اند با وجود موج گستردهی تصاویر،متن ها و فیلم های دیپفیک که توسط رباتهای تبلیغاتی مبتنی بر هوش مصنوعی تولید می شوند؛ ممکن است انتخابات بریتانیا و ایالات متحده در بهار آینده آماجدروغ پراکنی قرار بگیرند.
سم آلتمن(Sam Altman) مدیر عامل OpenAI،سازندهی ChatGPT در یک جلسهی دادرسی مربوط به کنگره در هفتهی اخیر گفت که جدیدترین مدلهای فنآوری هوش مصنوعی می تواند کاربران {فضای مجازی} را فریب دهد. او گفت:« توانایی این مدل ها فریبدادن،دستکاری و تولید اطلاعات دروغ در یک تعامل تن به تن {با کاربر} جای نگرانی زیادی دارد.
«تعیین مقرارات می تواند کار خوبی باشد. مردم باید این را بدانند که آیا دارند با یک هوش مصنوعی صحبت می کنند یا محتوایی که تماشا می کنند جعلی است یا نه. توانایی واقعی مدلسازی... برای پیشبینی بشر، نیازمند همکاری چند کمپانی برای تعیین مقررات و آموزش عمومی است.»
نخست وزیر بریتانیا، ریشی سوناک، روز پنج شنبه گفت که بریتانیا به این سمت می رود که خطرات هوش مصنوعی را محدود کند. نگرانی ها در مورد این فنآوری بسیار افزایش پیدا کرده است به ویژهپس از پیشرفتهایش در زمینهی مصنوعی مولد مانند ChatGP و Midjourney که می تواند به صورت باورپذیری عکس،صدا و متن های جعلی درست کند.
قبلتر ربات های تبلیغاتی تنها توانایی این را داشتند که پیام های از پیش تعیین شده را به طور انبوه منتشر کنند یا گروه هایی از «ترول های پولی» به صورت کاملا فردی وارد گود شوند اما ChatGPT و سایر فنآوری های هوش مصنوعی مولد توانایی مختل کردن انتخابات را در مقیاس گسترده دارند.
پروفسور مایکل وولدریج( Michael Wooldridg) ، مدیر بنیاد تحقیقات هوش مصنوعی در موسسه آلن تورینگ( Alan Turing) بریتانیا، گفت که اطلاعات نادرست مبتنی بر هوش مصنوعی نگرانی اصلی او است: « هماکنون در لیست نگرانی های من هوش مصنوعی شمارهی اول است. ما انتخابات در ایالات متحده و بریتانیا را در پیش داریم و همانطور که می دانیم رسانهها مجرای بسیار قدرتمندی برای پخش دادههای نادرست و تقلبی هستند اما هوش مصنوعی می تواند اطلاعات غلط را در مقیاس صنعتی تولید و منتشر کنند.»
وولدریج گفت ربات های ChatGPT می توانند مثل یک خیاط شخصیدوز برای یک فرد خاص اطلاعات نادرست تولید کنند. مثلا یک مشت اطلاعات نادرست برای یک رایدهنده محافظه کار در منطقهی اصلی رای محافظه کار ها، اطلاعاتی برای یک رایدهندهی کارگر در یک منطقه شهری یا تولید داده هایی برای یک رایدهندهی جمهوری خواه در غرب.
او گفت:« ساختن هویت های جعلی و انتشار خبرهای دروغین تنها یک سرگرمی برای کسی است که اندک تجربهایی در برنامهنویسی و فراغتی در بعد از ظهر دارد.»
پس از انتشار تصاویر دروغین دستگیری دونالد ترامپ در نیویورک و یا تصویرپاپ فرانسیس که در یک فروشگاه مد ژاکت پف دار پوشیده است و خیلی بیشتر هم دیده شد؛ خیلی ها در مورد قدرت هوش مصنوعی در خلق تصاویر نادرست ابراز نگرانی کردند اما آلتمن به سناتور های امریکایی گفت که این نگرانی ها ممکن است بیش از اندازه هم باشند.
مدت ها پیش که فتوشاپ وارد صحنه شد هم مردم برای مدتی فریب عکس های جعلی را می خوردند اما خیلی سریع متوجه شدند که بسیاری از عکس هایی که در اینترنت می بینند؛ ممکن است فتوشاپ باشند.
اما پیشرفت روز افزون توانایی های هوش مصنوعی وضعیتی را پدید آوردهاند که خیلی سخت می شود محتوای فضای آنلاین را باور کرد. مثلا توانایی شبیهسازی صدا که نخستین بار روی جو بایدن رییس جمهور آمریکا استفاده شده. ویدویی که در آن جوی بایدن در مورد فرستادن تانک به اوکراین صحبت می کرد؛ با توانایی شبیه سازی صدای هوش مصنوعی حرف های او تغییر داده شد و در فضای مجازی منتشر شد.
این ابزار شبیه سازی صدا توسط شرکت آمریکایی ElevenLabs ساخته شد. ماهیت ویروسی چنین کلیپ دستکاری شدهایی به تولید کلیپ های دیگری نیز کمک کرد. مثل ودیو کلیپی که از بیل گیتس ساخته شده بودو در آن می گفت واکسن کوید_۱۹ باعث بیماری ایدز می شود. این شرکت در ژانویه اعتراف کرد که با وجود« تعداد فزاینده سوءاستفاده از شبیه سازی صوتی» اقدامات حفاظتی خود را در برابر استفادهی نادرست از این فنآوری را تشدید کرده است.
Recorded feature یک شرکت امنیت سایبری ایالات متحده، گفت که دستاندرکارانی سرکش برنامههای شبیهسازی صدا را با قابلیت شبیهسازی صدای چهرههای عمومی در فضای مجازی می فروشند.
الکساندر لزلی(Alexander Leslie) تحلیلگر Recorded future، گفت که این فنآوری تنها در آستانه انتخابات ریاست جمهوری ایالات متحده آمریکا به صورت گسترده در دسترس قرار خواهند گرفت و به کار خواهند افتاد و به همین خاطر دولتمردان الان فرصت خوبی دارند که وارد عمل شوند و آن را محدود کنند.
لزلی گفت:« بدون آموزش عمومی و آگاهی گسترده، در حالی که به انتخابات نزدیک می شویم این فنآوری می تواند یک تهدید بزرگ و واقعی باشد.
NewsGuard، سازمانی که اطلاعات نادرست را رصد می کند؛ پژوهشی انجام داده است.آن ها از ChatGPT خواستهاند که از بین ۱۳۰۰ اثر انگشت اشتباهی صد روایت و خبر دروغ بسازد. این سازمان متوجه شده که ChatGPT می تواند دقیقا صد روایت دروغین را همانطور که از او خواسته شده بود؛ بسازد. این سازمان روز جمعه اعلام کرد که تعداد وبسایت های خبری و اطلاعاتی که توسط هوش مصنوعی تولیده شده بودند؛ در دوهفته دو برابر شده اند و به ۱۲۵ عدد رسیدهاند.استیون بریل(Steven Brill)، مدیر عامل این سازمان گفت که بسیار نگران است که کاربرانی از ChatGPT برای تولید روایت های دروغین و نادرست استفاده کنند.
۳۱۱۳۱۱