استفاده از تجزیه و تحلیل افراد برای ایجاد یک محل کار عادلانه
چکیده:اتوماسیون در حال آمدن به منابع انسانی است. با خودکارسازی جمعآوری و تجزیه و تحلیل مجموعههای داده بزرگ، هوش مصنوعی و سایر ابزارهای تحلیلی نوید بهبود هر مرحله از خط لوله منابع انسانی، از استخدام و جبران خسارت گرفته تا ارتقا، آموزش و ارزیابی را میدهند. با این حال، این سیستم ها می توانند سوگیری های تاریخی را منعکس کنند و بر اساس نژاد، جنسیت و طبقه تبعیض قائل شوند. مدیران باید در نظر داشته باشند که 1) مدلها احتمالاً با توجه به افراد در گروههای جمعیتی اکثریت بهترین عملکرد را دارند، اما با گروههایی که دارای نمایندگی کمتری هستند بدتر هستند. 2) چیزی به نام یک مدل واقعاً «نژاد کور» یا «کور جنسیتی» وجود ندارد، و حذف نژاد یا جنسیت به صراحت از یک مدل حتی میتواند اوضاع را بدتر کند. و 3) اگر دستههای جمعیتی در سازمان شما به طور مساوی توزیع نشده باشند (و در بیشتر موارد اینطور نیست)، حتی مدلهایی که با دقت ساخته شدهاند به نتایج یکسانی در بین گروهها منجر نمیشوند.
تجزیه و تحلیل افراد، کاربرد روشهای علمی و آماری برای دادههای رفتاری، ریشههای خود را به کتاب کلاسیک فردریک وینسلو تیلور در «اصول مدیریت علمی» در سال 1911 برمیگرداند که به دنبال اعمال روشهای مهندسی برای مدیریت افراد بود. اما یک قرن بعد – پس از پیشرفت در قدرت کامپیوتر، روشهای آماری، و بهویژه هوش مصنوعی (AI) – این حوزه واقعاً از نظر قدرت، عمق و کاربرد گسترده، بهویژه، اما نه تنها، در منابع انسانی منفجر شد. مدیریت (HR) با خودکارسازی جمعآوری و تجزیه و تحلیل مجموعههای داده بزرگ، هوش مصنوعی و سایر ابزارهای تحلیلی نوید بهبود هر مرحله از خط لوله منابع انسانی، از استخدام و جبران خسارت گرفته تا ارتقا، آموزش و ارزیابی را میدهند.
اکنون، الگوریتمهایی برای کمک به مدیران برای اندازهگیری بهرهوری و اتخاذ تصمیمهای مهم در فرصتهای استخدام، پاداش، ارتقاء و آموزش مورد استفاده قرار میگیرند که همه اینها ممکن است زندگی کارکنان را تغییر دهد. شرکتها از این فناوری برای شناسایی و بستن شکافهای دستمزد در بین جنسیت، نژاد یا سایر دستههای مهم جمعیتی استفاده میکنند. متخصصان منابع انسانی به طور معمول از ابزارهای مبتنی بر هوش مصنوعی برای نمایش رزومه ها استفاده می کنند تا در زمان صرفه جویی کنند، دقت را بهبود بخشند، و الگوهای پنهان در مدارک تحصیلی را که با عملکرد بهتر (یا بدتر) در آینده مرتبط هستند، کشف کنند. حتی میتوان از مدلهای مبتنی بر هوش مصنوعی برای پیشنهاد اینکه کدام یک از کارمندان ممکن است در آینده نزدیک کار را ترک کنند، استفاده کرد.
و با این حال، با وجود تمام وعدههای ابزارهای تجزیه و تحلیل افراد، ممکن است مدیران را به طور جدی به بیراهه بکشانند.
آمازون مجبور شد ابزار غربالگری رزومه را که توسط مهندسانش ساخته شده بود دور بریزد زیرا این ابزار برای زنان تعصب داشت. یا لینکدین را در نظر بگیرید، که در سراسر جهان توسط متخصصان برای شبکه سازی و جستجوی شغل و توسط متخصصان منابع انسانی برای استخدام استفاده می شود. مشخص شد که ویژگی تکمیل خودکار پلتفرم برای نوار جستجوی آن این است که پیشنهاد میکند نامهای زنانه مانند «Stephanie» با نامهای مردانه مانند «Stephen» جایگزین شوند. در نهایت، در سمت استخدام، یک تبلیغ رسانههای اجتماعی برای فرصتهای حوزه علوم، فناوری، مهندسی و ریاضی (STEM) که با دقت طراحی شده بود تا جنسیت خنثی باشد، با الگوریتمی که برای به حداکثر رساندن ارزش بودجههای تبلیغاتی استخدامکنندگان طراحی شده بود، به طور نامتناسبی به مردان نشان داده شد. ، زیرا زنان عموماً به تبلیغات پاسخگوتر هستند و بنابراین تبلیغات نمایش داده شده به آنها گران تر است.
در هر یک از این مثالها، شکست در فرآیند تحلیلی پدید آمد و یک سوگیری ناخواسته – و گاهی شدید – علیه یک گروه خاص ایجاد کرد. با این حال، می توان و باید از این خرابی ها جلوگیری کرد. برای درک پتانسیل تجزیه و تحلیل افراد مبتنی بر هوش مصنوعی، شرکت ها باید دلایل اصلی سوگیری الگوریتمی و نحوه عملکرد آنها در ابزارهای تجزیه و تحلیل افراد معمولی را درک کنند.
فرآیند تحلیلی
دادهها میتوانند مستقیماً دارای سوگیری صریح باشند – برای مثال، ارزیابیهای عملکرد در شرکت شما ممکن است از نظر تاریخی علیه یک گروه خاص سوگیری داشته باشد. در طول سالها، شما آن مشکل را تصحیح کردهاید، اما اگر ارزیابیهای مغرضانه برای آموزش ابزار هوش مصنوعی استفاده شود، الگوریتم سوگیریها را به ارث میبرد و به جلو منتشر میکند.
همچنین منابع ظریف تری برای تعصب وجود دارد. به عنوان مثال، معدل کارشناسی ممکن است به عنوان نماینده ای برای اطلاعات استفاده شود، یا مجوزها یا گواهی های شغلی ممکن است معیاری برای سنجش مهارت ها باشند. با این حال، این اقدامات ناقص هستند و اغلب حاوی سوگیریها و تحریفها هستند. به عنوان مثال، متقاضیان شغلی که مجبور بودند در دوران کالج کار کنند – که بیشتر از پیشینه های کم درآمد هستند – ممکن است نمرات پایین تری کسب کرده باشند، اما در واقع ممکن است بهترین کاندیداهای شغلی باشند زیرا انگیزه برای غلبه بر موانع را نشان داده اند. درک عدم تطابق بالقوه بین آنچه میخواهید اندازهگیری کنید (به عنوان مثال، هوش یا توانایی یادگیری) و آنچه واقعاً اندازهگیری میکنید (به عنوان مثال، عملکرد در آزمونهای تحصیلی) در ساخت هر ابزار تجزیه و تحلیل افراد مهم است، بهویژه زمانی که هدف ایجاد یک ابزار متنوعتر باشد. محل کار.
نحوه عملکرد یک ابزار تجزیه و تحلیل افراد محصول داده هایی است که تغذیه می کند و الگوریتمی که استفاده می کند. در اینجا، ما سه نکته را ارائه می دهیم که باید هنگام مدیریت افراد خود به آنها توجه کنید.
اولاً، مدلی که کیفیت کلی پیشبینی را به حداکثر میرساند – رایجترین رویکرد – احتمالاً در مورد افراد در اکثریت گروههای جمعیتی بهترین عملکرد را دارد، اما با گروههایی که کمتر به نمایش گذاشته شدهاند، بدتر است. این به این دلیل است که الگوریتمها معمولاً دقت کلی را به حداکثر میرسانند و بنابراین عملکرد برای اکثریت جمعیت وزن بیشتری نسبت به عملکرد جمعیت اقلیت در تعیین پارامترهای الگوریتم دارد. یک مثال ممکن است الگوریتمی باشد که بر روی نیروی کار استفاده می شود که عمدتاً شامل افرادی است که متاهل یا مجرد و بدون فرزند هستند. این الگوریتم ممکن است تعیین کند که افزایش ناگهانی استفاده از روزهای شخصی نشاندهنده احتمال بالای ترک سیگار است، اما این نتیجهگیری ممکن است در مورد والدین مجردی که نیاز به ترک هر از گاهی به دلیل بیماری فرزندشان دارند، صدق نکند.
دوم، چیزی به نام یک مدل واقعاً «نژاد-کور» یا «کور جنسیتی» وجود ندارد. در واقع، حذف نژاد یا جنسیت به صراحت از یک مدل حتی میتواند اوضاع را بدتر کند.
این مثال را در نظر بگیرید: تصور کنید که ابزار تجزیه و تحلیل افراد مبتنی بر هوش مصنوعی شما، که به دقت از دادن اطلاعات در مورد جنسیت خودداری کردهاید، یک سابقه قوی در پیشبینی اینکه کدام کارمندان احتمالاً در مدت کوتاهی پس از استخدام کار را ترک خواهند کرد، ایجاد میکند. شما دقیقاً مطمئن نیستید که الگوریتم به چه چیزی متصل شده است – هوش مصنوعی اغلب مانند یک جعبه سیاه برای کاربران عمل می کند – اما از استخدام افرادی که الگوریتم آنها را به عنوان پرخطر برچسب گذاری می کند اجتناب می کنید و شاهد افت خوبی در تعداد استخدام کنندگان جدید هستید که مدت کوتاهی پس از آن کار را ترک می کنند. پیوستن. با این حال، پس از چند سال، به دلیل تبعیض علیه زنان در فرآیند استخدام خود با دعوی قضایی مواجه می شوید. معلوم شد که این الگوریتم به طور نامتناسبی زنان را از یک کد پستی خاص که فاقد مهدکودک است، غربال میکرد و باعث ایجاد باری برای مادران مجرد میشد. اگر فقط می دانستید، ممکن بود مشکل را با ارائه مهدکودک نزدیک به محل کار حل می کردید، نه تنها از شکایت خودداری می کردید، بلکه حتی به خود یک مزیت رقابتی در استخدام زنان از این منطقه می دادید.
سوم، اگر دسته بندی های جمعیت شناختی مانند جنسیت و نژاد به طور نامتناسب در سازمان شما توزیع شده باشد، همانطور که معمول است – برای مثال، اگر اکثر مدیران در گذشته مرد بوده اند در حالی که اکثر کارگران زن بوده اند – حتی مدل هایی که با دقت ساخته شده اند به نتایج یکسانی در بین گروه ها منجر نمی شوند. . به این دلیل که، در این مثال، مدلی که مدیران آینده را شناسایی میکند، احتمالاً زنان را بهعنوان نامناسب برای مدیریت طبقهبندی میکند، اما مردان را بهعنوان مناسب برای مدیریت طبقهبندی میکند، حتی اگر جنسیت بخشی از معیارهای مدل نباشد. دلیل، در یک کلام، این است که معیارهای انتخاب مدل احتمالاً هم با جنسیت و هم با استعداد مدیریتی مرتبط است، بنابراین مدل به طرق مختلف برای زنان و مردان «اشتباه» خواهد بود.
چگونه آن را به درستی دریافت کنیم
یکی از ابزارهایی که می تواند در این زمینه مفید باشد، یک داشبورد سوگیری است که به طور جداگانه نحوه عملکرد یک ابزار تجزیه و تحلیل افراد را در گروه های مختلف (مثلاً نژاد) تجزیه و تحلیل می کند و امکان تشخیص زودهنگام سوگیری احتمالی را فراهم می کند. این داشبورد، در گروه های مختلف، هم عملکرد آماری و هم تأثیر را برجسته می کند. به عنوان مثال، برای برنامهای که از استخدام پشتیبانی میکند، داشبورد ممکن است دقت و نوع اشتباهات مدل و همچنین کسری از هر گروهی را که مصاحبه کرده و در نهایت استخدام شدهاند، خلاصه کند.
علاوه بر نظارت بر معیارهای عملکرد، مدیران میتوانند به صراحت تعصب را آزمایش کنند. یکی از راههای انجام این کار این است که یک متغیر جمعیتی خاص (مثلاً جنسیت) را در آموزش ابزار مبتنی بر هوش مصنوعی حذف کنید، اما سپس آن متغیر را به صراحت در تجزیه و تحلیل بعدی از نتایج بگنجانید. اگر جنسیت با نتایج همبستگی زیادی داشته باشد – برای مثال، اگر یک جنسیت به طور نامتناسبی برای افزایش حقوق توصیه می شود – این نشانه آن است که ابزار هوش مصنوعی ممکن است به طور ضمنی جنسیت را به روشی نامطلوب ترکیب کند. ممکن است این ابزار به طور نامتناسبی زنان را به عنوان کاندیدای افزایش حقوق معرفی کند، زیرا زنان در سازمان شما دستمزد کمتری دریافت می کنند. اگر چنین است، ابزار هوش مصنوعی به شما در حل یک مشکل مهم کمک می کند. اما همچنین ممکن است ابزار هوش مصنوعی یک سوگیری موجود را تقویت کند. تحقیقات بیشتر برای تعیین علت زمینه ای مورد نیاز خواهد بود.
مهم است که به یاد داشته باشید که هیچ مدلی کامل نیست. به عنوان مثال، شخصیت یک کارمند احتمالاً بر موفقیت آنها در شرکت شما تأثیر می گذارد بدون اینکه لزوماً در داده های منابع انسانی شما در مورد آن کارمند نشان داده شود. متخصصان منابع انسانی باید نسبت به این احتمالات هوشیار باشند و آنها را تا حد امکان مستند کنند. در حالی که الگوریتمها میتوانند به تفسیر دادههای گذشته و شناسایی الگوها کمک کنند، تجزیه و تحلیل افراد هنوز یک حوزه انسان محور است و در بسیاری از موارد، بهویژه موارد دشوار، تصمیمات نهایی همچنان توسط انسانها گرفته میشود، همانطور که در عبارت رایج رایج منعکس شده است. “تحلیل انسان در حلقه.”
برای مؤثر بودن، این افراد باید از سوگیری یادگیری ماشین و محدودیتهای مدل آگاه باشند، استقرار مدلها را در زمان واقعی نظارت کنند و برای انجام اقدامات اصلاحی لازم آماده باشند. یک فرآیند آگاه از سوگیری، قضاوت انسان را در هر مرحله تحلیلی شامل میشود، از جمله آگاهی از اینکه چگونه ابزارهای هوش مصنوعی میتوانند سوگیریها را از طریق حلقههای بازخورد تقویت کنند. یک مثال عینی زمانی است که تصمیمات استخدام بر اساس «تناسب فرهنگی» است، و هر چرخه استخدام کارکنان مشابه بیشتری را به سازمان میآورد، که به نوبه خود تناسب فرهنگی را حتی محدودتر میکند و به طور بالقوه بر خلاف اهداف تنوع عمل میکند. در این مورد، ممکن است علاوه بر اصلاح ابزار هوش مصنوعی، گسترش معیارهای استخدام نیز مورد نیاز باشد.
تجزیه و تحلیل افراد، به ویژه بر اساس هوش مصنوعی، ابزار فوق العاده قدرتمندی است که در منابع انسانی مدرن ضروری شده است. اما مدلهای کمی برای کمک به قضاوت انسان هستند، نه جایگزینی. برای استفاده حداکثری از هوش مصنوعی و ابزارهای تجزیه و تحلیل افراد دیگر، باید به طور مداوم بر نحوه عملکرد برنامه در زمان واقعی نظارت داشته باشید، چه معیارهای صریح و ضمنی برای تصمیمگیری و آموزش ابزار مورد استفاده قرار میگیرند، و اینکه آیا نتایج متفاوتی را تحت تأثیر قرار میدهند. گروه ها به روش های ناخواسته متفاوت است. مدیران با پرسیدن سؤالات درست از داده ها، مدل ها، تصمیمات و فروشندگان نرم افزار، می توانند با موفقیت از قدرت People Analytics برای ایجاد مکان های کاری با دستاوردهای بالا و عادلانه فردا استفاده کنند.
هیچ دیدگاهی نوشته نشده است.