عدالت ماشینی در سازمان‌ها؛ استخدام نیرو با تکیه بر هوش مصنوعی چه ریسک‌هایی دارد؟

دیجیاتو سه شنبه 02 دی 1404 - 00:00
تحقیقات جدید نشان می‌دهد هوش مصنوعی در استخدام می‌تواند عدالت را مخدوش کند. The post عدالت ماشینی در سازمان‌ها؛ استخدام نیرو با تکیه بر هوش مصنوعی چه ریسک‌هایی دارد؟ appeared first on دیجیاتو.

درحالی‌که ۹۰ درصد شرکت‌های جهان از ابزارهای هوش مصنوعی برای استخدام استفاده می‌کنند، یک سؤال اساسی ذهن مدیران را درگیر کرده است: «آیا هوش مصنوعی عدالت بیشتری نسبت به انسان‌ها دارد؟» گروهی معتقدند که هوش مصنوعی تعصبات انسانی را حذف می‌کند، اما گروه دیگر هشدار می‌دهند که الگوریتم‌ها نابرابری را در مقیاس وسیع بازتولید می‌کنند. اما تحقیقات نشان می‌دهد که مشکل اصلی جای دیگری است: هوش مصنوعی تعریف ما از عدالت را تغییر می‌دهد و این می‌تواند خطرناک باشد. در ادامه، نگاهی می‌اندازیم به یافته‌های یک مطالعه ۳ ساله میدانی و راهکارهای مهمی که مدیران باید به کار بگیرند.

مشکلات ورود هوش مصنوعی به فرایند استخدام

مجله Harvard Business Review می‌گوید مطالعه روی یک شرکت بزرگ بین‌المللی نشان داده که وقتی پای هوش مصنوعی به میان می‌آید، تعریف عدالت از انعطاف‌پذیری به سخت‌گیری تغییر می‌کند. از دیدگاه یک انسان، عدالت با توجه به بافت و زمینه تعریف می‌شود. برای مثال، یک مدیر ارشد در این شرکت می‌خواست کارآموزی را استخدام کند که نمراتش پایین بود اما انتظار می‌رفت که عملکرد خوبی داشته باشد. در نتیجه، از نظر مدیر، ردکردن او بی‌انصافی بود.

درمقابل الگوریتم‌های هوش مصنوعی عدالت را در «ثبات» می‌بینند. سیستم کارآموز را به دلیل نمره پایین در تست شخصیت‌شناسی، نامناسب تشخیص داد. در نتیجه با گذشت زمان، دیدگاه ماشینی غالب می‌شود و استعدادهای خاص و غیرمتعارف که در قالب استاندارد نمی‌گنجند، به‌طور سیستماتیک حذف می‌شوند.

هوش مصنوعی در استخدام

یکی از مهم‌ترین یافته‌های این تحقیق، مفهومی به نام «رانش عدالت» است. وقتی سیستم‌های هوش مصنوعی مستقر می‌شوند، عدالت به مرور زمان تغییر ماهیت می‌دهد. به عبارت دیگر، چیزی که قرار بود صرفاً یک راهنما باشد، با گذشت زمان تبدیل به یک قانون می‌شود و کسی نیز جرأت نمی‌کند آن را زیر سؤال ببرد، حتی اگر اشتباه باشد.

برای مثال در شرکتی که مورد مطالعه قرار گرفت، کاندیداهایی که نمره بالای ۷۲ درصد داشتند، خودکار قبول می‌شدند و زیر آن نمره رد می‌شدند. مدیران نیز به مرور زمان فراموش کردند که چه استعدادهایی را به خاطر این خط قرمز از دست می‌دهند. آنها تصور می‌کردند چون سیستم کار می‌کند و کسی شکایت نمی‌کند، پس عادلانه است. اما درواقع، عدالت به آرامی و به‌صورت نامرئی به سمت یک‌جانبه‌گرایی و حذف تنوع لغزیده بود.

سه سؤال طلایی که مدیران باید درباره هوش مصنوعی بپرسند

برای جلوگیری از افتادن در دام عدالت ماشینی مدیران باید به‌جای پرسیدن این سؤال که «آیا این ابزار دقیق است؟» سؤالات عمیق‌تری بپرسند ازجمله:

۱. افراد در سازمان ما چگونه عدالت را تعریف می‌کنند؟

فرض نکنید که همه عدالت را یک‌جور می‌فهمند. تیم منابع انسانی ممکن است عدالت را «فرایندی استاندارد» بداند، درحالی‌که مدیر فنی عدالت را در «پیداکردن مهارت، حتی بدون مدرک» ببیند.

محققان برای حل این مشکل، «باشگاه مناظره هوش مصنوعی اخلاقی» راه انداختند. در این جلسات، تیم‌های مختلف دور هم جمع می‌شوند و درباره سناریوهای واقعی و تضادهای اخلاقی بحث می‌کنند تا عدالت به یک چک‌لیست خشک تبدیل نشود.

۲. چه کسی به هوش مصنوعی قدرت می‌دهد تا بگوید چه چیزی منصفانه است؟

هوش مصنوعی خودش تصمیم نمی‌گیرد؛ انسان‌ها به آن قدرت می‌دهند. معمولاً فروشندگان نرم‌افزار با شعارهایی مثل «علمی» و «بدون سوگیری» مدیران را فریب می‌دهند. دراین‌باره مایکروسافت راهکاری دارد؛ این شرکت شبکه‌ای به نام «قهرمانان هوش مصنوعی مسئول» ترتیب داده است. این افراد متخصصان حوزه‌های مختلف هستند که وظیفه دارند در حین ساخت سیستم‌ها، فرضیات غلط را به چالش بکشند و نگذارند تعریف عدالت فقط توسط مهندسان کامپیوتر نوشته شود.

۳. کدام نسخه از عدالت تقویت می‌شود و چه چیزی از دست می‌رود؟

الگوریتم‌ها عدالت را دیکته می‌کنند. وقتی یک سیستم فقط به دنبال «کارایی» است، «تنوع» قربانی می‌شود. راهکار شرکت IBM دراین‌باره جالب است؛ این شرکت ابزاری به نام AI Fairness 360 دارد که به مدیران امکان می‌دهد مدل‌ها را در طول زمان بازرسی کنند. آنها می‌توانند ببینند اگر حدنصاب نمره را تغییر دهند، چه اتفاقی برای گروه‌های اقلیت می‌افتد. هدف این نیست که فقط یک‌بار بگوییم این مدل عادلانه است، بلکه باید دائماً چک کنیم که آیا مدل ما درحال انحراف است یا خیر.

هوش مصنوعی در استخدام

بااین‌حال، مسئله بنیادینی نیز وجود دارد: چگونه بفهمیم تعریف عدالت در سازمان ما چیست؟ محققان پیشنهاد می‌کنند از روش سایه به سایه استفاده کنید. یک دانشمند داده یا مدیر پروژه را مأمور کنید تا فرایند استخدام را سایه به سایه دنبال کند. او باید ببیند مدیران استخدام چه کسانی را «خوب» می‌دانند و چرا؟ دیدن این تفاوت‌ها در عمل (نه در جلسات) تعارضات پنهان بین عدالت انسانی و عدالت ماشینی را آشکار می‌کند.

درکل محققان نتیجه می‌گیرند که شما به عنوان مدیر، نگهبان عدالت هستید، نه تکنولوژی. تفاوت بین سیستم‌های موفق و شکست‌خورده در مدل ریاضی آنها نیست؛ بلکه در این است که آیا مدیران جرأت دارند فرضیات الگوریتم را به چالش بکشند یا تسلیم جادوی ریاضیات می‌شوند؟ اگر عدالت را به ماشین بسپارید، شاید فرایندی سریع و ارزان داشته باشید، اما درنهایت سازمانی خواهید داشت که همه در آن یک‌شکل فکر می‌کنند و استعدادهای ناب را از دست می‌دهید.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.