درحالیکه ۹۰ درصد شرکتهای جهان از ابزارهای هوش مصنوعی برای استخدام استفاده میکنند، یک سؤال اساسی ذهن مدیران را درگیر کرده است: «آیا هوش مصنوعی عدالت بیشتری نسبت به انسانها دارد؟» گروهی معتقدند که هوش مصنوعی تعصبات انسانی را حذف میکند، اما گروه دیگر هشدار میدهند که الگوریتمها نابرابری را در مقیاس وسیع بازتولید میکنند. اما تحقیقات نشان میدهد که مشکل اصلی جای دیگری است: هوش مصنوعی تعریف ما از عدالت را تغییر میدهد و این میتواند خطرناک باشد. در ادامه، نگاهی میاندازیم به یافتههای یک مطالعه ۳ ساله میدانی و راهکارهای مهمی که مدیران باید به کار بگیرند.
مجله Harvard Business Review میگوید مطالعه روی یک شرکت بزرگ بینالمللی نشان داده که وقتی پای هوش مصنوعی به میان میآید، تعریف عدالت از انعطافپذیری به سختگیری تغییر میکند. از دیدگاه یک انسان، عدالت با توجه به بافت و زمینه تعریف میشود. برای مثال، یک مدیر ارشد در این شرکت میخواست کارآموزی را استخدام کند که نمراتش پایین بود اما انتظار میرفت که عملکرد خوبی داشته باشد. در نتیجه، از نظر مدیر، ردکردن او بیانصافی بود.
درمقابل الگوریتمهای هوش مصنوعی عدالت را در «ثبات» میبینند. سیستم کارآموز را به دلیل نمره پایین در تست شخصیتشناسی، نامناسب تشخیص داد. در نتیجه با گذشت زمان، دیدگاه ماشینی غالب میشود و استعدادهای خاص و غیرمتعارف که در قالب استاندارد نمیگنجند، بهطور سیستماتیک حذف میشوند.

یکی از مهمترین یافتههای این تحقیق، مفهومی به نام «رانش عدالت» است. وقتی سیستمهای هوش مصنوعی مستقر میشوند، عدالت به مرور زمان تغییر ماهیت میدهد. به عبارت دیگر، چیزی که قرار بود صرفاً یک راهنما باشد، با گذشت زمان تبدیل به یک قانون میشود و کسی نیز جرأت نمیکند آن را زیر سؤال ببرد، حتی اگر اشتباه باشد.
برای مثال در شرکتی که مورد مطالعه قرار گرفت، کاندیداهایی که نمره بالای ۷۲ درصد داشتند، خودکار قبول میشدند و زیر آن نمره رد میشدند. مدیران نیز به مرور زمان فراموش کردند که چه استعدادهایی را به خاطر این خط قرمز از دست میدهند. آنها تصور میکردند چون سیستم کار میکند و کسی شکایت نمیکند، پس عادلانه است. اما درواقع، عدالت به آرامی و بهصورت نامرئی به سمت یکجانبهگرایی و حذف تنوع لغزیده بود.
برای جلوگیری از افتادن در دام عدالت ماشینی مدیران باید بهجای پرسیدن این سؤال که «آیا این ابزار دقیق است؟» سؤالات عمیقتری بپرسند ازجمله:
فرض نکنید که همه عدالت را یکجور میفهمند. تیم منابع انسانی ممکن است عدالت را «فرایندی استاندارد» بداند، درحالیکه مدیر فنی عدالت را در «پیداکردن مهارت، حتی بدون مدرک» ببیند.
محققان برای حل این مشکل، «باشگاه مناظره هوش مصنوعی اخلاقی» راه انداختند. در این جلسات، تیمهای مختلف دور هم جمع میشوند و درباره سناریوهای واقعی و تضادهای اخلاقی بحث میکنند تا عدالت به یک چکلیست خشک تبدیل نشود.
هوش مصنوعی خودش تصمیم نمیگیرد؛ انسانها به آن قدرت میدهند. معمولاً فروشندگان نرمافزار با شعارهایی مثل «علمی» و «بدون سوگیری» مدیران را فریب میدهند. دراینباره مایکروسافت راهکاری دارد؛ این شرکت شبکهای به نام «قهرمانان هوش مصنوعی مسئول» ترتیب داده است. این افراد متخصصان حوزههای مختلف هستند که وظیفه دارند در حین ساخت سیستمها، فرضیات غلط را به چالش بکشند و نگذارند تعریف عدالت فقط توسط مهندسان کامپیوتر نوشته شود.
الگوریتمها عدالت را دیکته میکنند. وقتی یک سیستم فقط به دنبال «کارایی» است، «تنوع» قربانی میشود. راهکار شرکت IBM دراینباره جالب است؛ این شرکت ابزاری به نام AI Fairness 360 دارد که به مدیران امکان میدهد مدلها را در طول زمان بازرسی کنند. آنها میتوانند ببینند اگر حدنصاب نمره را تغییر دهند، چه اتفاقی برای گروههای اقلیت میافتد. هدف این نیست که فقط یکبار بگوییم این مدل عادلانه است، بلکه باید دائماً چک کنیم که آیا مدل ما درحال انحراف است یا خیر.

بااینحال، مسئله بنیادینی نیز وجود دارد: چگونه بفهمیم تعریف عدالت در سازمان ما چیست؟ محققان پیشنهاد میکنند از روش سایه به سایه استفاده کنید. یک دانشمند داده یا مدیر پروژه را مأمور کنید تا فرایند استخدام را سایه به سایه دنبال کند. او باید ببیند مدیران استخدام چه کسانی را «خوب» میدانند و چرا؟ دیدن این تفاوتها در عمل (نه در جلسات) تعارضات پنهان بین عدالت انسانی و عدالت ماشینی را آشکار میکند.
درکل محققان نتیجه میگیرند که شما به عنوان مدیر، نگهبان عدالت هستید، نه تکنولوژی. تفاوت بین سیستمهای موفق و شکستخورده در مدل ریاضی آنها نیست؛ بلکه در این است که آیا مدیران جرأت دارند فرضیات الگوریتم را به چالش بکشند یا تسلیم جادوی ریاضیات میشوند؟ اگر عدالت را به ماشین بسپارید، شاید فرایندی سریع و ارزان داشته باشید، اما درنهایت سازمانی خواهید داشت که همه در آن یکشکل فکر میکنند و استعدادهای ناب را از دست میدهید.