به گزارش فارس به نقل از ورج، قانون شفافیت مدل های بنیادی هوش مصنوعی قصد دارد روشن کند که آیا مدل های هوش مصنوعی از داده های حق چاپ برای آموزش استفاده می کنند یا خیر.
دو قانون گذار آمریکایی لایحهای را ارائه کردند که در آن از سازندگان مدلهای بنیاد میخواهد منابع دادههای آموزشی را مشخص کنند تا دارندگان حق چاپ بدانند اطلاعات آنها مورد استفاده قرار گرفته شده یا خیر. قانون شفافیت مدل بنیادی هوش مصنوعی به کمیسیون تجارت فدرال (FTC) دستور می دهد تا با موسسه ملی استانداردها و فناوری (NIST) برای ایجاد قوانینی جهت گزارش شفافیت داده های آموزشی همکاری کند.
شرکتهایی که مدلهای بنیادی را تولید میکنند، ملزم به گزارش منابع دادههای آموزشی و نحوه نگهداری دادهها در طول فرآیند استنتاج، توصیف محدودیتها یا خطرات مدل، نحوه هماهنگی مدل با چارچوب مدیریت ریسک هوش مصنوعی برنامهریزیشده NIST و سایر استانداردهای فدرال هستند.
این لایحه همچنین میگوید توسعهدهندگان هوش مصنوعی باید تلاشهای خود را به یک تیم گزارش دهند تا از ارائه اطلاعات نادرست یا مضر در مورد سؤالات پزشکی یا بهداشتی، ترکیب بیولوژیکی، امنیت سایبری، انتخابات، پلیس، تصمیمگیری مالی، آموزش، تصمیمات استخدامی، خدمات عمومی و جمعیت های آسیب پذیر مانند کودکان جلوگیری شود.
این لایحه بر اهمیت شفافیت داده های آموزش در مورد حق چاپ تاکید می کند، زیرا تاکنون چندین پرونده قضایی علیه شرکت های هوش مصنوعی به اتهام نقض حق چاپ مطرح شده است.
در این لایحه آمده است: با افزایش دسترسی عمومی به هوش مصنوعی، شکایتها و نگرانیهای عمومی در مورد نقض حق چاپ افزایش یافته است. استفاده عمومی از مدلهای پایه منجر به ارائه موارد بیشماری اطلاعات نادرست یا مغرضانه به مردم شده است.
این لایحه تکمیل کننده فرمان اجرایی هوش مصنوعی دولت آمریکا است که به ایجاد استانداردهای گزارش دهی برای مدل های هوش مصنوعی کمک می کند.