مایکروسافت با انتشار یک گزارش جدید، به توضیح اقداماتی پرداخته که طی سال گذشته برای انتشار مسئولانه پلتفرمهای هوش مصنوعی خود انجام داده است.
مایکروسافت در گزارش شفافیت هوش مصنوعی مسئولانه خود، که عمدتاً سال 2023 را پوشش میدهد، دستاوردهایش در زمینه استقرار ایمن محصولات هوش مصنوعی را شرح میدهد. انتشار این گزارش سالانه یکی از تعهداتی است که ردموندیها پس از امضای توافقنامه داوطلبانهای با کاخ سفید در جولای سال گذشته انجام میدهد. مایکروسافت و سایر شرکتها طی این توافقنامه، متعهد شدهاند که سیستمهای هوش مصنوعی خود را بهصورت مسئولانه ایجاد کنند و به ایمنی آنها نیز متعهد شدهاند.
غول نرمافزار بهطور کلی در گزارش خود میگوید که سال گذشته 30 ابزار هوش مصنوعی مسئولانه ایجاد کرده، تیم هوش مصنوعی مسئولانه خود را رشد داده است و تیمهایی را مسئول کرده تا خطرات برنامههای کاربردی هوش مصنوعی را در طول دوره توسعه آنها اندازهگیری کنند.
مایکروسافت همچنین اشاره میکند که در پلتفرمهای تولید تصویر خود از سیستم Content Credentials بهره گرفته است، که با قراردادن یک واترمارک روی عکس، ساخت آن توسط هوش مصنوعی را مشخص میکند.
علاوه بر این، در گزارش مایکروسافت گفته شده که این شرکت به مشتریان هوش مصنوعی Azure خود ابزارهایی را ارائه کرده تا بتوانند محتوای مشکلساز مانند محتوای جنسی و آسیبرسان را تشخیص دهند. همچنین ابزارهایی برای ارزیابی خطرات امنیتی در دسترسی آنها قرار گفته است.
گسترش تلاشهای خود برای «تیم قرمز» دیگر پیشرفت اشارهشده توسط مایکروسافت است که برنامههای آن شامل تشکیل یک تیم داخلی برای کشف نقصهای ایمنی مدلهای هوش مصنوعی و همچنین تست قابلیتهای مدلهای جدید پیش از عرضه آنها میشود.
«ناتاشا کرامپتون»، مدیر بخش هوش مصنوعی مسئولانه مایکروسافت، با ارسال ایمیلی به The Verge توضیح میدهد که این شرکت میداند هوشمصنوعی هنوز در حال پیشرفت است و این موضوع برای هوش مصنوعی مسئول نیز صادق است. او میگوید:
«هوش مصنوعی مسئول هیچ خط پایانی ندارد، بنابراین ما هرگز کار خود را تحت تعهدات هوش مصنوعی داوطلبانه پایانیافته نمیدانیم. ما از زمان امضای این قرارداد پیشرفت زیادی کردهایم و مشتاقانه منتظریم تا امسال شتاب خود را ادامه دهیم.»