2024年4月30日-5月1日英國倫敦國際人力資源技術(shù)展覽會(huì)算法人力資源,將“人力資源”中的“人”去掉?隨著零工經(jīng)濟(jì)的興起,人力資源決策也越來越由算法而非人力來做出。這是未來的趨勢(shì)嗎?您有多嚴(yán)格地遵守指導(dǎo)方針?假設(shè)某人未達(dá)到其月度 KPI 的 3/5,您就會(huì)對(duì)其處以警告。六個(gè)月內(nèi)警告三次,則立即解雇。這是處理績(jī)效不佳的具體且結(jié)構(gòu)化的方法。不過,一些人力資源專業(yè)人士可能會(huì)引入一些回旋余地——如果在其中一個(gè)月份,相關(guān)員工失去了親人怎么辦?或者第三次警告只是剛好低于標(biāo)準(zhǔn)?那么,算法人力資源可能會(huì)將你(和你的回旋余地)排除在外——這是相當(dāng)確定的。
什么是算法人力資源?算法人力資源的概念非常直觀:人力資源部門可以使用人員分析來指導(dǎo)他們的選擇,而不是基于主觀意見和人類觀察做出決策。這樣,他們就可以對(duì)自己的決策更有信心,因?yàn)樗麄冎肋@些決策是基于客觀數(shù)據(jù)的。這種方法可以用于員工監(jiān)控。如果某人超額完成了目標(biāo),或者經(jīng)歷了特別好的一周,系統(tǒng)可能會(huì)獎(jiǎng)勵(lì)他們一張午餐券或一個(gè)下午的休息時(shí)間。相反,如果銷售人員經(jīng)常遲到,或者打電話的時(shí)間減少,這可能會(huì)觸發(fā)一個(gè)序列,安排他們與直線經(jīng)理會(huì)面討論他們的表現(xiàn)。雖然這聽起來有點(diǎn)悲觀,但它也消除了人為偏見;每個(gè)人都會(huì)得到公平對(duì)待。在招聘階段,消除偏見尤其有益。當(dāng)一個(gè)人的技能和經(jīng)驗(yàn)由計(jì)算機(jī)系統(tǒng)評(píng)估時(shí),性別、種族或殘疾等關(guān)鍵特征就再也不會(huì)成為阻礙。一旦人工智能進(jìn)入這個(gè)領(lǐng)域,可能性就會(huì)擴(kuò)大。預(yù)測(cè)模型可以根據(jù)某些數(shù)據(jù)點(diǎn)之間的關(guān)系,找出可能離開公司的員工?;诖?,企業(yè)可以確定需要做些什么來留住這些員工。
缺點(diǎn)算法的好壞取決于它所得到的數(shù)據(jù)。袖珍計(jì)算器可以計(jì)算出圓周率的平方根(順便說一下,是 1.7725),但它無法告訴你你舉起了多少根手指。同樣,算法人力資源對(duì)“什么”的總結(jié)是無與倫比的,但它對(duì)“為什么”的分析充其量也有限。就拿開頭的例子來說吧。如果你的算法沒有給出一個(gè)人表現(xiàn)不佳的完整背景——也許他們剛生完孩子,累得神志不清——它可能會(huì)建議你把這個(gè)新父母趕出家門。當(dāng)然,情況可能更糟。它可能會(huì)把它們?nèi)映鋈?。亞馬遜通過 Flex 與許多司機(jī)簽約,這意味著他們無法獲得與全職員工相同的保護(hù)。最近,亞馬遜遭到抨擊,因?yàn)檫@些工人在沒有人類做出決定的情況下被解雇。相反,亞馬遜使用一款應(yīng)用程序來監(jiān)控司機(jī)的速度、安全性和完成配額的能力。如果司機(jī)的駕駛速度低于標(biāo)準(zhǔn),他們不會(huì)被叫到辦公室討論此事。相反,他們會(huì)在手機(jī)上收到一條消息,說他們不再需要服務(wù)。這個(gè)系統(tǒng)被批評(píng)為冷酷無情,最糟糕的是,它完全是反烏托邦的。當(dāng)一個(gè)人的生計(jì)取決于一組 1 和 0 的決定時(shí),很難不同意。擁有解雇員工權(quán)力的系統(tǒng)意味著什么?有些人會(huì)認(rèn)為這絕對(duì)公平——你設(shè)定一個(gè)標(biāo)準(zhǔn),那些落后的人就會(huì)被解雇。它消除了人為偏見;一個(gè)人被解雇的可能性不會(huì)因他的經(jīng)理有多喜歡他而增加或減少。然而,機(jī)器偏見仍然是一個(gè)值得關(guān)注的問題:計(jì)算機(jī)系統(tǒng)并不完美,它們很少(如果有的話)對(duì)自己的錯(cuò)誤負(fù)責(zé)。這自然使得它們很難被爭(zhēng)論。
繼承偏見人工智能讓事情變得更加復(fù)雜,因?yàn)樗鼉A向于遵循訓(xùn)練模式。諷刺的是,這給人工智能植入了許多人類潛意識(shí)中的偏見。以 Dall-E 和 Midjourney 等 AI 圖像生成器為例,它們?cè)诂F(xiàn)有藝術(shù)作品上接受過訓(xùn)練,能夠根據(jù)提示創(chuàng)建圖像。當(dāng)被要求畫一個(gè)“女人”時(shí),這些程序往往會(huì)默認(rèn)畫一個(gè)白人女人,除非提示指定了不同的種族。這不是故意為之。相反,這是因?yàn)榛ヂ?lián)網(wǎng)上其他藝術(shù)作品的描述很少會(huì)指明女性是白人時(shí)的種族。然而,如果藝術(shù)作品描繪的是亞洲或西班牙裔女性,這一特征更有可能被指出。藝術(shù)創(chuàng)作中的小問題會(huì)成為招聘中的大問題。如果你要求人工智能為你提供與你現(xiàn)有團(tuán)隊(duì)“相似”的候選人,結(jié)果會(huì)怎樣?你可能想要一套類似的技能,卻沒有注意到你的小團(tuán)隊(duì)恰好完全由 40 歲以下的男性組成。那么,人工智能可能會(huì)在不知不覺中排除那些不符合這一表面描述的候選人。就這樣,你就有了一個(gè)反饋循環(huán),它可以以多種方式教條地影響你員工隊(duì)伍的多樣性。
那么,我們?cè)撛趺醋觯?span style="text-indent: 2em;">算法人力資源是一種工具。就像錘子一樣,它既不是善的力量,也不是惡的力量,盡管它可以同時(shí)用于善和惡。事實(shí)上,最好將這些系統(tǒng)視為團(tuán)隊(duì)的支持成員:聽取他們告訴你的內(nèi)容,相信他們會(huì)做好自己的工作,但將決策權(quán)留給自己。請(qǐng)記住,對(duì)于他們能夠注意到的每一個(gè)你永遠(yuǎn)不會(huì)注意到的細(xì)節(jié),都有一千條他們不可能理解的背景信息。簡(jiǎn)而言之:使用算法心率作為衛(wèi)星導(dǎo)航。不要讓它駕駛汽車。
展會(huì)時(shí)間及展會(huì)地點(diǎn):2025年4月30日-5月1日??英國???倫敦??就業(yè)? ??(意向參展請(qǐng)點(diǎn)擊詢洽盈拓展覽專業(yè)展會(huì)顧問)
中國組展機(jī)構(gòu):盈拓展覽,以“服務(wù)至上,品質(zhì)為先”為宗旨,為中國外貿(mào)企業(yè)提供專業(yè)、高效的展覽服務(wù)。榮獲多項(xiàng)殊榮,備受信賴。