2024年4月30日-5月1日英國倫敦國際人力資源技術展覽會算法人力資源,將“人力資源”中的“人”去掉?隨著零工經濟的興起,人力資源決策也越來越由算法而非人力來做出。這是未來的趨勢嗎?您有多嚴格地遵守指導方針?假設某人未達到其月度 KPI 的 3/5,您就會對其處以警告。六個月內警告三次,則立即解雇。這是處理績效不佳的具體且結構化的方法。不過,一些人力資源專業(yè)人士可能會引入一些回旋余地——如果在其中一個月份,相關員工失去了親人怎么辦?或者第三次警告只是剛好低于標準?那么,算法人力資源可能會將你(和你的回旋余地)排除在外——這是相當確定的。
什么是算法人力資源?算法人力資源的概念非常直觀:人力資源部門可以使用人員分析來指導他們的選擇,而不是基于主觀意見和人類觀察做出決策。這樣,他們就可以對自己的決策更有信心,因為他們知道這些決策是基于客觀數據的。這種方法可以用于員工監(jiān)控。如果某人超額完成了目標,或者經歷了特別好的一周,系統(tǒng)可能會獎勵他們一張午餐券或一個下午的休息時間。相反,如果銷售人員經常遲到,或者打電話的時間減少,這可能會觸發(fā)一個序列,安排他們與直線經理會面討論他們的表現。雖然這聽起來有點悲觀,但它也消除了人為偏見;每個人都會得到公平對待。在招聘階段,消除偏見尤其有益。當一個人的技能和經驗由計算機系統(tǒng)評估時,性別、種族或殘疾等關鍵特征就再也不會成為阻礙。一旦人工智能進入這個領域,可能性就會擴大。預測模型可以根據某些數據點之間的關系,找出可能離開公司的員工。基于此,企業(yè)可以確定需要做些什么來留住這些員工。
缺點算法的好壞取決于它所得到的數據。袖珍計算器可以計算出圓周率的平方根(順便說一下,是 1.7725),但它無法告訴你你舉起了多少根手指。同樣,算法人力資源對“什么”的總結是無與倫比的,但它對“為什么”的分析充其量也有限。就拿開頭的例子來說吧。如果你的算法沒有給出一個人表現不佳的完整背景——也許他們剛生完孩子,累得神志不清——它可能會建議你把這個新父母趕出家門。當然,情況可能更糟。它可能會把它們扔出去。亞馬遜通過 Flex 與許多司機簽約,這意味著他們無法獲得與全職員工相同的保護。最近,亞馬遜遭到抨擊,因為這些工人在沒有人類做出決定的情況下被解雇。相反,亞馬遜使用一款應用程序來監(jiān)控司機的速度、安全性和完成配額的能力。如果司機的駕駛速度低于標準,他們不會被叫到辦公室討論此事。相反,他們會在手機上收到一條消息,說他們不再需要服務。這個系統(tǒng)被批評為冷酷無情,最糟糕的是,它完全是反烏托邦的。當一個人的生計取決于一組 1 和 0 的決定時,很難不同意。擁有解雇員工權力的系統(tǒng)意味著什么?有些人會認為這絕對公平——你設定一個標準,那些落后的人就會被解雇。它消除了人為偏見;一個人被解雇的可能性不會因他的經理有多喜歡他而增加或減少。然而,機器偏見仍然是一個值得關注的問題:計算機系統(tǒng)并不完美,它們很少(如果有的話)對自己的錯誤負責。這自然使得它們很難被爭論。
繼承偏見人工智能讓事情變得更加復雜,因為它傾向于遵循訓練模式。諷刺的是,這給人工智能植入了許多人類潛意識中的偏見。以 Dall-E 和 Midjourney 等 AI 圖像生成器為例,它們在現有藝術作品上接受過訓練,能夠根據提示創(chuàng)建圖像。當被要求畫一個“女人”時,這些程序往往會默認畫一個白人女人,除非提示指定了不同的種族。這不是故意為之。相反,這是因為互聯網上其他藝術作品的描述很少會指明女性是白人時的種族。然而,如果藝術作品描繪的是亞洲或西班牙裔女性,這一特征更有可能被指出。藝術創(chuàng)作中的小問題會成為招聘中的大問題。如果你要求人工智能為你提供與你現有團隊“相似”的候選人,結果會怎樣?你可能想要一套類似的技能,卻沒有注意到你的小團隊恰好完全由 40 歲以下的男性組成。那么,人工智能可能會在不知不覺中排除那些不符合這一表面描述的候選人。就這樣,你就有了一個反饋循環(huán),它可以以多種方式教條地影響你員工隊伍的多樣性。
那么,我們該怎么做?算法人力資源是一種工具。就像錘子一樣,它既不是善的力量,也不是惡的力量,盡管它可以同時用于善和惡。事實上,最好將這些系統(tǒng)視為團隊的支持成員:聽取他們告訴你的內容,相信他們會做好自己的工作,但將決策權留給自己。請記住,對于他們能夠注意到的每一個你永遠不會注意到的細節(jié),都有一千條他們不可能理解的背景信息。簡而言之:使用算法心率作為衛(wèi)星導航。不要讓它駕駛汽車。
展會時間及展會地點:2025年4月30日-5月1日??英國???倫敦??就業(yè)? ??(意向參展請點擊詢洽盈拓展覽專業(yè)展會顧問)