افزایش نگرانی‌ها از گسترش هوش مصنوعی

دنیای اقتصاد پنج شنبه 11 آبان 1402 - 00:05
سیتنا: انتشار ویدئویی جعلی از کسنیا تورکوا، مجری روسی یک شبکه تلویزیونی در فضای مجازی خبرساز شد؛ او در این «دیپ‌فیک» یا ویدئوی ساختگی و غیرواقعی، داخل استودیو با ‌میهمانی درباره نرم‌افزار معاملات رمزارز گفت‌وگو می‌کند! این ویدئوی جعلی که توسط هوش مصنوعی ساخته شده است، بسیار واقعی به‌نظر می‌رسد و مجری از نظر ظاهر، رفتار‌ و گفتار شباهت فوق‌العاده‌ای به کسنیا تورکوا دارد.

ویدئوی اخیر نمونه نگران‌کننده‌ای از قابلیت هوش مصنوعی برای ایجاد ویدئوهایی است که در آن مجریان واقعی اخبار در حال گزارش داستان‌های جعلی هستند. به گفته کارشناسان، این پدیده نگران‌کننده خطر انتشار اطلاعات نادرست و ایجاد بی‌اعتمادی به رسانه‌ها را افزایش می‌دهد. کسنیا تورکوا در این دیپ‌فیک به جای خواندن اخبار، در حال تبلیغ یک محصول تجاری است. خود او وقتی جمعه برای نخستین‌بار این ویدئو را دید، لحظاتی طول کشید تا متوجه شود که جعلی است. با این شیوه، سوءاستفاده‌ از رسانه‌ها رو به گسترش است؛ تاکتیکی که فراگیر بودن آن باعث نگرانی کارشناسان هوش مصنوعی و افزایش انتشار اطلاعات نادرست شده است. این یک ترفند نسبتا جدید است، اما روزنامه‌نگاران رسانه‌های خبری از جمله سی‌بی‌اس، سی‌ان‌ان و بی‌بی‌سی نیز هدف چنین حملاتی قرار گرفته‌اند؛ حملاتی که معمولا برای انتشار اطلاعات نادرست مورد استفاده قرار می‌گیرد. این ویدئوی جعلی در حساب فیس‌بوک آژانس ارتباطات آرژانتینی «دیجیت استودیو» منتشر شد که به نظر می‌رسد از سال ۱۴۰۰ غیر‌فعال بوده است. رئیس‌جمهوری آمریکا، روز دوشنبه یک فرمان اجرایی را امضا کرد که در آن حفاظ‌های اولیه برای شرکت‌های هوش مصنوعی ایجاد می‌شود. کاخ سفید امیدوار است که این مقررات جامع، زمینه لازم را برای نظارت بیشتر ‌و جلوگیری از سوءاستفاده از قابلیت هوش مصنوعی فراهم کند.

 

 

منبع خبر "دنیای اقتصاد" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.