به گزارش خبرگزاری صدا و سیما، حدود دو هفته پیش، متا از مدل زبانی هوش مصنوعی خود با عنوان LLaMA رونمایی کرد؛ ابزاری که برخلاف رقبای خود مثل ChatGPT یا چتبات بینگ مایکروسافت، برای عموم منتشر نشده است. اما بهتازگی گزارشهایی از افشای هوش مصنوعی متا در یکی از سکوهای نهچندان خوشنام اینترنت منتشر شده؛ اقدامی که نگرانهایی را پیرامون استفاده از این ابزار در پی داشته است.
متا قصد انتشار LLaMA را به صورت یک چتبات برای عموم نداشته و تنها میخواسته است آن را در قالب یک بسته متنباز در اختیار فعالان حوزه AI قرار دهد. مدیران فیسبوک، علت این تصمیم را رفع مشکلات و باگها در کنار مواردی مثل ارائه پاسخهای جهتدار و نادرست اعلام کرده بودند. با این حال، پس از گذشت حدود یک هفته، یک فایل تورنت قابل دانلود روی بستر ۴ Chan قرار گرفت و به سرعت در سایتها و برنامه های کاربردی دیگر پخش شد.
برخی افراد معتقد هستند که افشای این دادهها، میتواند عواقب جدی برای فیسبوک به همراه داشته باشد و این شرکت را متهم به انتشار سهلانگارانه سرویس خود میکنند. یکی از کارشناسان حوزه امنیت سایبری، هشدار میدهد که کاربران باید بهزودی منتظر انبوهی از پیامهای اسپم شخصیسازی شده و تلاشهای جدید برای حملات فیشینگ باشند. البته برخی دیگر، میگویند که دسترسی آزادانه به AI از ضرورت بالایی برخوردار است و مدلهای زبانی پیچیده مشابه با محصول فیسبوک هم در گذشته به صورت عمومی در اختیار علاقهمندان قرار گرفته و پیامدهای چندانی نداشتهاند.
نشریه دِورج در مصاحبه با چندین کارشناس امنیت دیجیتال، مطابقت مدل زبانی افشا شده با هوش مصنوعی متا را تایید کرده است. مدیران فیسبوک از اظهار نظر پیرامون منشا نشت داده، خودداری کردهاند؛ اما مدیر اجرایی بخش AI این شرکت، تایید کرده است که برخی افراد، قصد دسترسی غیرمجاز به LLaMA را داشتهاند. دانلود فایلهای مرتبط با این ابزار که شامل ۴ مدل زبانی مختلف میشود، چندان سودی برای کاربران عادی نخواهد داشت؛ زیرا با یک مدل خام مواجه هستیم که نیاز به تمرین دارد و برای چنین کاری، به حجم عظیمی از قدرت پردازش نیاز خواهد داشت.
گفته شده است که افراد دارای تجربه کار با سرورها و محیطهای توسعه در طرح های پیچیده میتوانند با دنبال کردن راهنمای مناسب و صرف زمان کافی، LLaMA را به یک ابزار قابل استفاده تبدیل کنند. همچنین سختافزار و مهارت قبلی، تنها موانع استفاده غیرمجاز از هوش مصنوعی متا نیستند؛ زیرا این ابزار برای ایجاد مکالمه با کاربر مثل ChatGPT بهینهسازی نشده است. معمولاً چنین بهینهسازیهایی در مراحل پایانی توسعه ابزارهای مبتنی بر AI صورت میگیرند و فرایند نسبتاً دشواری به شمار میروند.
گرداننده موسسه تحقیقاتی غیرانتفاعی EleutherAI اشاره دارد که نیاز پردازش بالای هوش مصنوعی متا، عامل محدودکننده اصلی در استفاده موثر از آن خواهد بود؛ چون بیشتر کاربران از حداقل سختافزار مورد نیاز برای اجرای LLaMA برخوردار نیستند و برای اجرای روان آن هم به سیستمهای پیشرفته و گرانتری نیاز خواهد بود. نیاز پردازشی سنگین، نشان میدهد که ابزار فیسبوک از قدرت زیادی برخوردار است؛ بهطوری که میتواند میلیاردها پارامتر را مورد ارزیابی قرار دهد. البته متا اشاره دارد که یکی از مدلهای زبانی با قابلیت بررسی ۱۳ میلیارد پارامتر، میتواند روی کارت گرافیک A ۱۰۰ اجرا شود و امکان اجاره ابری آن به ازای چند دلار در ساعت، وجود دارد. فیسبوک ادعا دارد که این مدل، میتواند عملکردی بهتر از GPT-۳ با توان ارزیابی ۱۷۵ میلیارد پارامتر از خود نشان دهد.
افشای هوش مصنوعی متا، بحث درباره دسترسی آزاد به ابزارهای مبتنی بر AI را هم دوباره پیش کشیده است. اگرچه هدف مخالفان و موافقان این موضوع، یکسان است؛ اما دید کاملاً متفاوتی نسبت به مسئله دارند. موافقان، میگویند که دسترسی آزاد میتواند مشکلات و آسیبپذیریهای سرویسها را سریعتر مشخص کند و امکان سوء استفاده از آنها را محدود سازد. در سوی دیگر مخالفان ادعا دارند که دسترسی آزادانه میتواند خطرناک باشد و امکان استفاده از AI برای انجام امور پیچیده و خطرناک وجود دارد که در نهایت میتواند امنیت عموم را به خطر بیندازد.