به گزارش خبرگزاری صدا وسیما، به نقل از مرکز تعاملات بینالمللی علم و فناوری معاونت علمی ریاست جمهوری؛ با توجه به این که مدلهای هوش مصنوعی در ماههای اخیر جهان را به تسخیر خود درآوردهاند، گردهمایی دفکان هم امسال از هکرها دعوت کرده است تا روی کشف باگها و سوگیریهای مدلهای زبانی بزرگ (LLM) شرکتهای مختلف ازجمله OpenAI، گوگل و Anthropic تمرکز کنند.
بهگزارش The Register، این گردهمایی که بزرگترین رویداد سالانه هکرهاست و در لاس وگاس برگزار میشود، امسال میزبان هزاران نفر ازجمله صدها دانشجو از مؤسسات آموزشی و جوامع مختلف خواهد بود که جمعی از آنها بهدنبال کشف نقایص مدلهای زبانی بزرگ میروند. این مدلها همان فناوری پشت ابزارهایی مثل ChatGPT و بارد گوگل هستند.
«سوِن کتول»، بنیانگذار گروه AI Village که مسئول دعوتکننده هکرها به این رویداد بوده است، در بیانیهای میگوید: «شرکتها بهطور سنتی این مشکل را با تیمهای قرمز (Red Teams) تخصصی خود حل میکردند. البته این کار معمولاً در خفا انجام میشد. اما مشکلات این مدلها تا زمانی که افراد بیشتری از چگونگی تشکیل تیمهای قرمز و ارزیابی مشکلات آگاه نشوند، برطرف نخواهد شد.»
هکرها در دفکان امسال کدام مدلهای هوش مصنوعی را بررسی خواهند کرد؟
بنابراین دفکان امسال در واقع تیم قرمزی را تشکیل میدهد که برای حل این مشکلات ساخته میشود. AI Village برای شرکتکنندگان در این رویداد لپتاپ و دسترسی محدود به مدلهای زبانی شرکتهای مختلف را فراهم میکند. این مدلها در حال حاضر شامل مدلهای شرکت Anthropic، گوگل، Hugging Face، انویدیا، OpenAI و Stability است.
افزونبراین، اعلام شده که این رویداد با مشارکت مایکروسافت برگزار میشود، بنابراین شاید امکان دسترسی به مدل بینگ هم وجود داشته باشد. هکرها قرار است به پلتفرم ارزیابی شرکت Scale AI هم دسترسی پیدا کنند تا بتوانند نرمافزارها را دقیقتر و بهتر بررسی نمایند.
این خبر در شرایطی اعلام میشود که «کاملا هریس»، معاون اول رئیس جمهور آمریکا و چند مقام ارشد دولتی بهتازگی با رؤسای OpenAI، مایکروسافت، Anthropic و گوگل درباره تهدیدهای هوش مصنوعی دیدار و صحبت کرده بودند.
رویداد دفکان ۲۰۲۳ از ۱۹ تا ۲۲ مرداد امسال در لاس وگاس آمریکا برگزار خواهد شد.