براساس آزمایشهای اولیهای که OpenAI برای درک بهتر و همچنین جلوگیری از آسیبهای «فاجعهبار» احتمالی ناشی از هوش مصنوعی ChatGPT انجام داده است، مدل GPT-4 در تحقیقات مربوط به ساخت سلاحهای بیولوژیکی، نسبت به اینترنت معمولی، مزیت جزئی به کاربران ارائه میکند.
براساس گزارش بلومبرگ، قانونگذاران و حتی برخی از مدیران فناوری در ماههای گذشته نگرانیهای خود در این مورد که آیا هوش مصنوعی میتواند توسعه سلاحهای بیولوژیکی را آسانتر کند یا نه، ابراز کردهاند. در ماه اکتبر، «جو بایدن»، رئیس جمهور ایالاتمتحده یک فرمان اجرایی در مورد هوش مصنوعی امضا کرد که به وزارت انرژی دستور داد تا اطمینان پیدا کند سیستمهای هوش مصنوعی خطرات شیمیایی، بیولوژیکی یا هستهای به همراه ندارند.
در همان ماه، OpenAI تیم موسوم به «چهارچوب آمادگی» را تشکیل داد که هدف آن بهحداقل رساندن این خطرات و سایر خطرات ناشی از هوش مصنوعی است.
حالا محققان تیم آمادگی OpenAI بهعنوان بخشی از اولین مطالعه خود، از 50 متخصص زیستشناسی و 50 دانشآموز کمک گرفته است. به نیمی از آنها گفته شد تا از طریق اینترنت دستورات مربوط به ساخت یک تهدید بیولوژیکی را جمعآوری کنند و گروه دیگر علاوه بر اینترنت، به یک نسخه ویژه و بدون محدودیت از مدل زبانی بزرگ GPT-4 نیز دسترسی داشتند. وظیفه شرکتکنندگان این بود که درباره یک ماده شیمیایی که امکان استفاده از آن بهعنوان سلاح وجود دارد، اطلاعات جمعآوری کنند. علاوه براین، از آنها خواسته شده بود تا درباره نحوه انتشار این ماده شیمیایی نیز تحقیق کنند.
محققان OpenAI درنهایت پس از مقایسه نتایجی که این دو گروه بهدست آوردند، در مطالعه خود به افزایش جزئی دقت و تمامیت تحقیق گروهی اشاره کردند که به ChatGPT دسترسی داشتند. برهمین اساس، آنها به این نتیجه رسیدند که دسترسی به GPT-4 بهطور جزئی باعث میشود تا تحقیق در مورد ساخت یک تهدید بیولوژیکی آسانتر شود. همچنین به گفته آنها گروهی که از ChatGPT استفاده کردهاند، پاسخهای دقیقتری داشتند.