۰۲ دی ۱۴۰۴
به روز شده در: ۰۲ دی ۱۴۰۴ - ۱۸:۵۵
فیلم بیشتر »»
کد خبر ۱۱۲۶۱۲۸
تاریخ انتشار: ۱۰:۴۷ - ۰۲-۱۰-۱۴۰۴
کد ۱۱۲۶۱۲۸
انتشار: ۱۰:۴۷ - ۰۲-۱۰-۱۴۰۴

عدالت ماشینی در سازمان‌ها؛ استخدام نیرو با تکیه بر هوش مصنوعی چه ریسک‌هایی دارد؟

عدالت ماشینی در سازمان‌ها؛ استخدام نیرو با تکیه بر هوش مصنوعی چه ریسک‌هایی دارد؟
تحقیقات جدید نشان می‌دهد هوش مصنوعی در استخدام می‌تواند عدالت را مخدوش کند.

درحالی‌که ۹۰ درصد شرکت‌های جهان از ابزارهای هوش مصنوعی برای استخدام استفاده می‌کنند، یک سؤال اساسی ذهن مدیران را درگیر کرده است: «آیا هوش مصنوعی عدالت بیشتری نسبت به انسان‌ها دارد؟» گروهی معتقدند که هوش مصنوعی تعصبات انسانی را حذف می‌کند، اما گروه دیگر هشدار می‌دهند که الگوریتم‌ها نابرابری را در مقیاس وسیع بازتولید می‌کنند.

 اما تحقیقات نشان می‌دهد که مشکل اصلی جای دیگری است: هوش مصنوعی تعریف ما از عدالت را تغییر می‌دهد و این می‌تواند خطرناک باشد. در ادامه، نگاهی می‌اندازیم به یافته‌های یک مطالعه ۳ ساله میدانی و راهکارهای مهمی که مدیران باید به کار بگیرند.

مشکلات ورود هوش مصنوعی به فرایند استخدام

به گزارش دیجیاتو، مجله Harvard Business Review می‌گوید مطالعه روی یک شرکت بزرگ بین‌المللی نشان داده که وقتی پای هوش مصنوعی به میان می‌آید، تعریف عدالت از انعطاف‌پذیری به سخت‌گیری تغییر می‌کند. از دیدگاه یک انسان، عدالت با توجه به بافت و زمینه تعریف می‌شود.

برای مثال، یک مدیر ارشد در این شرکت می‌خواست کارآموزی را استخدام کند که نمراتش پایین بود اما انتظار می‌رفت که عملکرد خوبی داشته باشد. در نتیجه، از نظر مدیر، ردکردن او بی‌انصافی بود.

درمقابل الگوریتم‌های هوش مصنوعی عدالت را در «ثبات» می‌بینند. سیستم کارآموز را به دلیل نمره پایین در تست شخصیت‌شناسی، نامناسب تشخیص داد. در نتیجه با گذشت زمان، دیدگاه ماشینی غالب می‌شود و استعدادهای خاص و غیرمتعارف که در قالب استاندارد نمی‌گنجند، به‌طور سیستماتیک حذف می‌شوند.

یکی از مهم‌ترین یافته‌های این تحقیق، مفهومی به نام «رانش عدالت» است. وقتی سیستم‌های هوش مصنوعی مستقر می‌شوند، عدالت به مرور زمان تغییر ماهیت می‌دهد. به عبارت دیگر، چیزی که قرار بود صرفاً یک راهنما باشد، با گذشت زمان تبدیل به یک قانون می‌شود و کسی نیز جرأت نمی‌کند آن را زیر سؤال ببرد، حتی اگر اشتباه باشد.

برای مثال در شرکتی که مورد مطالعه قرار گرفت، کاندیداهایی که نمره بالای ۷۲ درصد داشتند، خودکار قبول می‌شدند و زیر آن نمره رد می‌شدند. مدیران نیز به مرور زمان فراموش کردند که چه استعدادهایی را به خاطر این خط قرمز از دست می‌دهند. آنها تصور می‌کردند چون سیستم کار می‌کند و کسی شکایت نمی‌کند، پس عادلانه است. اما درواقع، عدالت به آرامی و به‌صورت نامرئی به سمت یک‌جانبه‌گرایی و حذف تنوع لغزیده بود.

سه سؤال طلایی که مدیران باید درباره هوش مصنوعی بپرسند

برای جلوگیری از افتادن در دام عدالت ماشینی مدیران باید به‌جای پرسیدن این سؤال که «آیا این ابزار دقیق است؟» سؤالات عمیق‌تری بپرسند ازجمله:

۱. افراد در سازمان ما چگونه عدالت را تعریف می‌کنند؟

فرض نکنید که همه عدالت را یک‌جور می‌فهمند. تیم منابع انسانی ممکن است عدالت را «فرایندی استاندارد» بداند، درحالی‌که مدیر فنی عدالت را در «پیداکردن مهارت، حتی بدون مدرک» ببیند.

محققان برای حل این مشکل، «باشگاه مناظره هوش مصنوعی اخلاقی» راه انداختند. در این جلسات، تیم‌های مختلف دور هم جمع می‌شوند و درباره سناریوهای واقعی و تضادهای اخلاقی بحث می‌کنند تا عدالت به یک چک‌لیست خشک تبدیل نشود.

۲. چه کسی به هوش مصنوعی قدرت می‌دهد تا بگوید چه چیزی منصفانه است؟

هوش مصنوعی خودش تصمیم نمی‌گیرد؛ انسان‌ها به آن قدرت می‌دهند. معمولاً فروشندگان نرم‌افزار با شعارهایی مثل «علمی» و «بدون سوگیری» مدیران را فریب می‌دهند. دراین‌باره مایکروسافت راهکاری دارد؛ این شرکت شبکه‌ای به نام «قهرمانان هوش مصنوعی مسئول» ترتیب داده است.

این افراد متخصصان حوزه‌های مختلف هستند که وظیفه دارند در حین ساخت سیستم‌ها، فرضیات غلط را به چالش بکشند و نگذارند تعریف عدالت فقط توسط مهندسان کامپیوتر نوشته شود.

۳. کدام نسخه از عدالت تقویت می‌شود و چه چیزی از دست می‌رود؟

الگوریتم‌ها عدالت را دیکته می‌کنند. وقتی یک سیستم فقط به دنبال «کارایی» است، «تنوع» قربانی می‌شود. راهکار شرکت IBM دراین‌باره جالب است؛ این شرکت ابزاری به نام AI Fairness 360 دارد که به مدیران امکان می‌دهد مدل‌ها را در طول زمان بازرسی کنند.

 آنها می‌توانند ببینند اگر حدنصاب نمره را تغییر دهند، چه اتفاقی برای گروه‌های اقلیت می‌افتد. هدف این نیست که فقط یک‌بار بگوییم این مدل عادلانه است، بلکه باید دائماً چک کنیم که آیا مدل ما درحال انحراف است یا خیر.

بااین‌حال، مسئله بنیادینی نیز وجود دارد: چگونه بفهمیم تعریف عدالت در سازمان ما چیست؟ محققان پیشنهاد می‌کنند از روش سایه به سایه استفاده کنید. یک دانشمند داده یا مدیر پروژه را مأمور کنید تا فرایند استخدام را سایه به سایه دنبال کند. او باید ببیند مدیران استخدام چه کسانی را «خوب» می‌دانند و چرا؟ دیدن این تفاوت‌ها در عمل (نه در جلسات) تعارضات پنهان بین عدالت انسانی و عدالت ماشینی را آشکار می‌کند.

درکل محققان نتیجه می‌گیرند که شما به عنوان مدیر، نگهبان عدالت هستید، نه تکنولوژی. تفاوت بین سیستم‌های موفق و شکست‌خورده در مدل ریاضی آنها نیست؛ بلکه در این است که آیا مدیران جرأت دارند فرضیات الگوریتم را به چالش بکشند یا تسلیم جادوی ریاضیات می‌شوند؟ اگر عدالت را به ماشین بسپارید، شاید فرایندی سریع و ارزان داشته باشید، اما درنهایت سازمانی خواهید داشت که همه در آن یک‌شکل فکر می‌کنند و استعدادهای ناب را از دست می‌دهید.

ارسال به دوستان
شوک ستاره اسپانیایی به بارسلونا؛ نیکو ویلیامز در مسیر پیوستن به رئال مادرید گفتگوی تلفنی وزرای خارجه ایران و مصر در دنیا چگونه از "خاک" مراقبت می کنند؟ در ایران چه کنیم؟! شوک بودجه‌ای به باشگاه‌ها؛ اعتبار حق پخش مسابقات ورزشی در لایحه ۱۴۰۵ افزایش نیافت فرانسه ناو جنگی ۳۱۰ متری می سازد بانک مرکزی مشاجره فرزین با نمایندگان مجلس را تکذیب کرد زلاتبیور ؛ وقتی الگوی ساخت هتل موشک باشد! (+عکس) افتتاح یک هتل مجلل گردشگری با حضور رهبر کره شمالی و دخترش (+تصاویر) دو دقیقه از عاشقانه‌ترین صحنه‌های تاریخ سینما ؛ اتاق شنیدن موسیقی (تماشا کنید) آسوشیتدپرس: روسیه روند خارج کردن خانواده‌های دیپلمات‌های خود از ونزوئلا را آغاز کرده حادثه تلخ برای خانواده فوق‌ستاره فوتبال در میامی؛ خواهر لیونل مسی راهی بیمارستان شد ویلای اختصاصی رونالدو در قلب دریای سرخ؛ زندگی لوکس در جزیره دورافتاده «نوجوما» (+عکس) استعفای فرزین جدی شد؟ نفر بعدی ساختمان شیشه ای میرداماد کیست؟ پدر این دو کودک معلول دو هفته دیگر «اعدام» می شود/ کمک کنیم این اتفاق نیفتد «مرگ و دوشیزه»؛ وقتی حقیقت مدرک ندارد