ورود / ثبت نام
0

هیچ محصولی در سبدخرید نیست.

بازگشت به فروشگاه
0
0

استفاده از تجزیه و تحلیل افراد برای ایجاد یک محل کار عادلانه-روش های استخدام هاروارد

3 بازدید
استفاده از تجزیه و تحلیل افراد برای ایجاد یک محل کار عادلانه
امیتیاز خود را همین حالا ثبت نمایید!! post

استفاده از تجزیه و تحلیل افراد برای ایجاد یک محل کار عادلانه

چکیده:اتوماسیون در حال آمدن به منابع انسانی است. با خودکارسازی جمع‌آوری و تجزیه و تحلیل مجموعه‌های داده بزرگ، هوش مصنوعی و سایر ابزارهای تحلیلی نوید بهبود هر مرحله از خط لوله منابع انسانی، از استخدام و جبران خسارت گرفته تا ارتقا، آموزش و ارزیابی را می‌دهند. با این حال، این سیستم ها می توانند سوگیری های تاریخی را منعکس کنند و بر اساس نژاد، جنسیت و طبقه تبعیض قائل شوند. مدیران باید در نظر داشته باشند که 1) مدل‌ها احتمالاً با توجه به افراد در گروه‌های جمعیتی اکثریت بهترین عملکرد را دارند، اما با گروه‌هایی که دارای نمایندگی کمتری هستند بدتر هستند. 2) چیزی به نام یک مدل واقعاً «نژاد کور» یا «کور جنسیتی» وجود ندارد، و حذف نژاد یا جنسیت به صراحت از یک مدل حتی می‌تواند اوضاع را بدتر کند. و 3) اگر دسته‌های جمعیتی در سازمان شما به طور مساوی توزیع نشده باشند (و در بیشتر موارد اینطور نیست)، حتی مدل‌هایی که با دقت ساخته شده‌اند به نتایج یکسانی در بین گروه‌ها منجر نمی‌شوند.

تجزیه و تحلیل افراد، کاربرد روش‌های علمی و آماری برای داده‌های رفتاری، ریشه‌های خود را به کتاب کلاسیک فردریک وینسلو تیلور در «اصول مدیریت علمی» در سال 1911 برمی‌گرداند که به دنبال اعمال روش‌های مهندسی برای مدیریت افراد بود. اما یک قرن بعد – پس از پیشرفت در قدرت کامپیوتر، روش‌های آماری، و به‌ویژه هوش مصنوعی (AI) – این حوزه واقعاً از نظر قدرت، عمق و کاربرد گسترده، به‌ویژه، اما نه تنها، در منابع انسانی منفجر شد. مدیریت (HR) با خودکارسازی جمع‌آوری و تجزیه و تحلیل مجموعه‌های داده بزرگ، هوش مصنوعی و سایر ابزارهای تحلیلی نوید بهبود هر مرحله از خط لوله منابع انسانی، از استخدام و جبران خسارت گرفته تا ارتقا، آموزش و ارزیابی را می‌دهند.

اکنون، الگوریتم‌هایی برای کمک به مدیران برای اندازه‌گیری بهره‌وری و اتخاذ تصمیم‌های مهم در فرصت‌های استخدام، پاداش، ارتقاء و آموزش مورد استفاده قرار می‌گیرند که همه اینها ممکن است زندگی کارکنان را تغییر دهد. شرکت‌ها از این فناوری برای شناسایی و بستن شکاف‌های دستمزد در بین جنسیت، نژاد یا سایر دسته‌های مهم جمعیتی استفاده می‌کنند. متخصصان منابع انسانی به طور معمول از ابزارهای مبتنی بر هوش مصنوعی برای نمایش رزومه ها استفاده می کنند تا در زمان صرفه جویی کنند، دقت را بهبود بخشند، و الگوهای پنهان در مدارک تحصیلی را که با عملکرد بهتر (یا بدتر) در آینده مرتبط هستند، کشف کنند. حتی می‌توان از مدل‌های مبتنی بر هوش مصنوعی برای پیشنهاد اینکه کدام یک از کارمندان ممکن است در آینده نزدیک کار را ترک کنند، استفاده کرد.
و با این حال، با وجود تمام وعده‌های ابزارهای تجزیه و تحلیل افراد، ممکن است مدیران را به طور جدی به بیراهه بکشانند.
آمازون مجبور شد ابزار غربالگری رزومه را که توسط مهندسانش ساخته شده بود دور بریزد زیرا این ابزار برای زنان تعصب داشت. یا لینکدین را در نظر بگیرید، که در سراسر جهان توسط متخصصان برای شبکه سازی و جستجوی شغل و توسط متخصصان منابع انسانی برای استخدام استفاده می شود. مشخص شد که ویژگی تکمیل خودکار پلتفرم برای نوار جستجوی آن این است که پیشنهاد می‌کند نام‌های زنانه مانند «Stephanie» با نام‌های مردانه مانند «Stephen» جایگزین شوند. در نهایت، در سمت استخدام، یک تبلیغ رسانه‌های اجتماعی برای فرصت‌های حوزه علوم، فناوری، مهندسی و ریاضی (STEM) که با دقت طراحی شده بود تا جنسیت خنثی باشد، با الگوریتمی که برای به حداکثر رساندن ارزش بودجه‌های تبلیغاتی استخدام‌کنندگان طراحی شده بود، به طور نامتناسبی به مردان نشان داده شد. ، زیرا زنان عموماً به تبلیغات پاسخگوتر هستند و بنابراین تبلیغات نمایش داده شده به آنها گران تر است.
در هر یک از این مثال‌ها، شکست در فرآیند تحلیلی پدید آمد و یک سوگیری ناخواسته – و گاهی شدید – علیه یک گروه خاص ایجاد کرد. با این حال، می توان و باید از این خرابی ها جلوگیری کرد. برای درک پتانسیل تجزیه و تحلیل افراد مبتنی بر هوش مصنوعی، شرکت ها باید دلایل اصلی سوگیری الگوریتمی و نحوه عملکرد آنها در ابزارهای تجزیه و تحلیل افراد معمولی را درک کنند.

فرآیند تحلیلی

داده ها خنثی نیستند ابزارهای تجزیه و تحلیل افراد به طور کلی بر اساس داده های تاریخی یک کارفرما در مورد استخدام، حفظ، ارتقاء و پاداش کارکنانش ساخته می شوند. چنین داده هایی همیشه منعکس کننده تصمیمات و نگرش های گذشته هستند. بنابراین، در حالی که تلاش می‌کنیم تا محل کار فردا را بسازیم، باید به این نکته توجه داشته باشیم که چگونه داده‌های گذشته‌نگر ما ممکن است هم سوگیری‌های قدیمی و هم موجود را منعکس کند و ممکن است پیچیدگی‌های مدیریت افراد در یک نیروی کار با تنوع فزاینده را به طور کامل نشان ندهد.
داده‌ها می‌توانند مستقیماً دارای سوگیری صریح باشند – برای مثال، ارزیابی‌های عملکرد در شرکت شما ممکن است از نظر تاریخی علیه یک گروه خاص سوگیری داشته باشد. در طول سال‌ها، شما آن مشکل را تصحیح کرده‌اید، اما اگر ارزیابی‌های مغرضانه برای آموزش ابزار هوش مصنوعی استفاده شود، الگوریتم سوگیری‌ها را به ارث می‌برد و به جلو منتشر می‌کند.
همچنین منابع ظریف تری برای تعصب وجود دارد. به عنوان مثال، معدل کارشناسی ممکن است به عنوان نماینده ای برای اطلاعات استفاده شود، یا مجوزها یا گواهی های شغلی ممکن است معیاری برای سنجش مهارت ها باشند. با این حال، این اقدامات ناقص هستند و اغلب حاوی سوگیری‌ها و تحریف‌ها هستند. به عنوان مثال، متقاضیان شغلی که مجبور بودند در دوران کالج کار کنند – که بیشتر از پیشینه های کم درآمد هستند – ممکن است نمرات پایین تری کسب کرده باشند، اما در واقع ممکن است بهترین کاندیداهای شغلی باشند زیرا انگیزه برای غلبه بر موانع را نشان داده اند. درک عدم تطابق بالقوه بین آنچه می‌خواهید اندازه‌گیری کنید (به عنوان مثال، هوش یا توانایی یادگیری) و آنچه واقعاً اندازه‌گیری می‌کنید (به عنوان مثال، عملکرد در آزمون‌های تحصیلی) در ساخت هر ابزار تجزیه و تحلیل افراد مهم است، به‌ویژه زمانی که هدف ایجاد یک ابزار متنوع‌تر باشد. محل کار.
نحوه عملکرد یک ابزار تجزیه و تحلیل افراد محصول داده هایی است که تغذیه می کند و الگوریتمی که استفاده می کند. در اینجا، ما سه نکته را ارائه می دهیم که باید هنگام مدیریت افراد خود به آنها توجه کنید.
اولاً، مدلی که کیفیت کلی پیش‌بینی را به حداکثر می‌رساند – رایج‌ترین رویکرد – احتمالاً در مورد افراد در اکثریت گروه‌های جمعیتی بهترین عملکرد را دارد، اما با گروه‌هایی که کمتر به نمایش گذاشته شده‌اند، بدتر است. این به این دلیل است که الگوریتم‌ها معمولاً دقت کلی را به حداکثر می‌رسانند و بنابراین عملکرد برای اکثریت جمعیت وزن بیشتری نسبت به عملکرد جمعیت اقلیت در تعیین پارامترهای الگوریتم دارد. یک مثال ممکن است الگوریتمی باشد که بر روی نیروی کار استفاده می شود که عمدتاً شامل افرادی است که متاهل یا مجرد و بدون فرزند هستند. این الگوریتم ممکن است تعیین کند که افزایش ناگهانی استفاده از روزهای شخصی نشان‌دهنده احتمال بالای ترک سیگار است، اما این نتیجه‌گیری ممکن است در مورد والدین مجردی که نیاز به ترک هر از گاهی به دلیل بیماری فرزندشان دارند، صدق نکند.
دوم، چیزی به نام یک مدل واقعاً «نژاد-کور» یا «کور جنسیتی» وجود ندارد. در واقع، حذف نژاد یا جنسیت به صراحت از یک مدل حتی می‌تواند اوضاع را بدتر کند.
این مثال را در نظر بگیرید: تصور کنید که ابزار تجزیه و تحلیل افراد مبتنی بر هوش مصنوعی شما، که به دقت از دادن اطلاعات در مورد جنسیت خودداری کرده‌اید، یک سابقه قوی در پیش‌بینی اینکه کدام کارمندان احتمالاً در مدت کوتاهی پس از استخدام کار را ترک خواهند کرد، ایجاد می‌کند. شما دقیقاً مطمئن نیستید که الگوریتم به چه چیزی متصل شده است – هوش مصنوعی اغلب مانند یک جعبه سیاه برای کاربران عمل می کند – اما از استخدام افرادی که الگوریتم آنها را به عنوان پرخطر برچسب گذاری می کند اجتناب می کنید و شاهد افت خوبی در تعداد استخدام کنندگان جدید هستید که مدت کوتاهی پس از آن کار را ترک می کنند. پیوستن. با این حال، پس از چند سال، به دلیل تبعیض علیه زنان در فرآیند استخدام خود با دعوی قضایی مواجه می شوید. معلوم شد که این الگوریتم به طور نامتناسبی زنان را از یک کد پستی خاص که فاقد مهدکودک است، غربال می‌کرد و باعث ایجاد باری برای مادران مجرد می‌شد. اگر فقط می دانستید، ممکن بود مشکل را با ارائه مهدکودک نزدیک به محل کار حل می کردید، نه تنها از شکایت خودداری می کردید، بلکه حتی به خود یک مزیت رقابتی در استخدام زنان از این منطقه می دادید.
سوم، اگر دسته بندی های جمعیت شناختی مانند جنسیت و نژاد به طور نامتناسب در سازمان شما توزیع شده باشد، همانطور که معمول است – برای مثال، اگر اکثر مدیران در گذشته مرد بوده اند در حالی که اکثر کارگران زن بوده اند – حتی مدل هایی که با دقت ساخته شده اند به نتایج یکسانی در بین گروه ها منجر نمی شوند. . به این دلیل که، در این مثال، مدلی که مدیران آینده را شناسایی می‌کند، احتمالاً زنان را به‌عنوان نامناسب برای مدیریت طبقه‌بندی می‌کند، اما مردان را به‌عنوان مناسب برای مدیریت طبقه‌بندی می‌کند، حتی اگر جنسیت بخشی از معیارهای مدل نباشد. دلیل، در یک کلام، این است که معیارهای انتخاب مدل احتمالاً هم با جنسیت و هم با استعداد مدیریتی مرتبط است، بنابراین مدل به طرق مختلف برای زنان و مردان «اشتباه» خواهد بود.

چگونه آن را به درستی دریافت کنیم

به دلایل فوق (و دلایل دیگر)، ما باید به ویژه از محدودیت های مدل های مبتنی بر هوش مصنوعی آگاه باشیم و کاربرد آنها را در گروه های جمعیتی نظارت کنیم. این امر به ویژه برای منابع انسانی مهم است، زیرا برخلاف برنامه‌های عمومی هوش مصنوعی، داده‌هایی که سازمان‌ها برای آموزش ابزارهای هوش مصنوعی استفاده می‌کنند، به احتمال زیاد منعکس‌کننده عدم تعادلی است که منابع انسانی در حال حاضر برای اصلاح آن‌ها تلاش می‌کند. به این ترتیب، شرکت‌ها باید هنگام ایجاد و نظارت بر برنامه‌های کاربردی هوش مصنوعی به افرادی که در داده‌ها نشان داده می‌شوند توجه زیادی داشته باشند. واضح‌تر، آنها باید ببینند که چگونه ترکیب داده‌های آموزشی ممکن است توصیه‌های هوش مصنوعی را در یک جهت یا جهت دیگر منحرف کند.
یکی از ابزارهایی که می تواند در این زمینه مفید باشد، یک داشبورد سوگیری است که به طور جداگانه نحوه عملکرد یک ابزار تجزیه و تحلیل افراد را در گروه های مختلف (مثلاً نژاد) تجزیه و تحلیل می کند و امکان تشخیص زودهنگام سوگیری احتمالی را فراهم می کند. این داشبورد، در گروه های مختلف، هم عملکرد آماری و هم تأثیر را برجسته می کند. به عنوان مثال، برای برنامه‌ای که از استخدام پشتیبانی می‌کند، داشبورد ممکن است دقت و نوع اشتباهات مدل و همچنین کسری از هر گروهی را که مصاحبه کرده و در نهایت استخدام شده‌اند، خلاصه کند.
علاوه بر نظارت بر معیارهای عملکرد، مدیران می‌توانند به صراحت تعصب را آزمایش کنند. یکی از راه‌های انجام این کار این است که یک متغیر جمعیتی خاص (مثلاً جنسیت) را در آموزش ابزار مبتنی بر هوش مصنوعی حذف کنید، اما سپس آن متغیر را به صراحت در تجزیه و تحلیل بعدی از نتایج بگنجانید. اگر جنسیت با نتایج همبستگی زیادی داشته باشد – برای مثال، اگر یک جنسیت به طور نامتناسبی برای افزایش حقوق توصیه می شود – این نشانه آن است که ابزار هوش مصنوعی ممکن است به طور ضمنی جنسیت را به روشی نامطلوب ترکیب کند. ممکن است این ابزار به طور نامتناسبی زنان را به عنوان کاندیدای افزایش حقوق معرفی کند، زیرا زنان در سازمان شما دستمزد کمتری دریافت می کنند. اگر چنین است، ابزار هوش مصنوعی به شما در حل یک مشکل مهم کمک می کند. اما همچنین ممکن است ابزار هوش مصنوعی یک سوگیری موجود را تقویت کند. تحقیقات بیشتر برای تعیین علت زمینه ای مورد نیاز خواهد بود.
مهم است که به یاد داشته باشید که هیچ مدلی کامل نیست. به عنوان مثال، شخصیت یک کارمند احتمالاً بر موفقیت آنها در شرکت شما تأثیر می گذارد بدون اینکه لزوماً در داده های منابع انسانی شما در مورد آن کارمند نشان داده شود. متخصصان منابع انسانی باید نسبت به این احتمالات هوشیار باشند و آنها را تا حد امکان مستند کنند. در حالی که الگوریتم‌ها می‌توانند به تفسیر داده‌های گذشته و شناسایی الگوها کمک کنند، تجزیه و تحلیل افراد هنوز یک حوزه انسان محور است و در بسیاری از موارد، به‌ویژه موارد دشوار، تصمیمات نهایی همچنان توسط انسان‌ها گرفته می‌شود، همانطور که در عبارت رایج رایج منعکس شده است. “تحلیل انسان در حلقه.”
برای مؤثر بودن، این افراد باید از سوگیری یادگیری ماشین و محدودیت‌های مدل آگاه باشند، استقرار مدل‌ها را در زمان واقعی نظارت کنند و برای انجام اقدامات اصلاحی لازم آماده باشند. یک فرآیند آگاه از سوگیری، قضاوت انسان را در هر مرحله تحلیلی شامل می‌شود، از جمله آگاهی از اینکه چگونه ابزارهای هوش مصنوعی می‌توانند سوگیری‌ها را از طریق حلقه‌های بازخورد تقویت کنند. یک مثال عینی زمانی است که تصمیمات استخدام بر اساس «تناسب فرهنگی» است، و هر چرخه استخدام کارکنان مشابه بیشتری را به سازمان می‌آورد، که به نوبه خود تناسب فرهنگی را حتی محدودتر می‌کند و به طور بالقوه بر خلاف اهداف تنوع عمل می‌کند. در این مورد، ممکن است علاوه بر اصلاح ابزار هوش مصنوعی، گسترش معیارهای استخدام نیز مورد نیاز باشد.
تجزیه و تحلیل افراد، به ویژه بر اساس هوش مصنوعی، ابزار فوق العاده قدرتمندی است که در منابع انسانی مدرن ضروری شده است. اما مدل‌های کمی برای کمک به قضاوت انسان هستند، نه جایگزینی. برای استفاده حداکثری از هوش مصنوعی و ابزارهای تجزیه و تحلیل افراد دیگر، باید به طور مداوم بر نحوه عملکرد برنامه در زمان واقعی نظارت داشته باشید، چه معیارهای صریح و ضمنی برای تصمیم‌گیری و آموزش ابزار مورد استفاده قرار می‌گیرند، و اینکه آیا نتایج متفاوتی را تحت تأثیر قرار می‌دهند. گروه ها به روش های ناخواسته متفاوت است. مدیران با پرسیدن سؤالات درست از داده ها، مدل ها، تصمیمات و فروشندگان نرم افزار، می توانند با موفقیت از قدرت People Analytics برای ایجاد مکان های کاری با دستاوردهای بالا و عادلانه فردا استفاده کنند.
منبع:هاروارد-آموزش
نویسنده:مهندس محمدرسول جهانتیغ((مدیریت منابع انسانی))
آیا این مطلب را می پسندید؟
https://momkn.ir/?p=2840
اشتراک گذاری:
واتساپتوییترفیسبوکپینترستلینکدین
علیرضا جهانتیغ
مطالب بیشتر
برچسب ها:

نظرات

0 نظر در مورد استفاده از تجزیه و تحلیل افراد برای ایجاد یک محل کار عادلانه-روش های استخدام هاروارد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

هیچ دیدگاهی نوشته نشده است.

Solverwp- WordPress Theme and Plugin

سلام،چگونه میتوانم کمک کنم.