▲求職者現(xiàn)場體驗(yàn)AI面試。新京報(bào)貝殼財(cái)經(jīng)記者 羅亦丹 攝
當(dāng)AI招聘碰上了AI應(yīng)聘,魔法能否打敗魔法?
據(jù)新京報(bào)報(bào)道,繼不少企業(yè)通過AI面試官進(jìn)行大規(guī)模面試后,市場上出現(xiàn)了幫助面試者應(yīng)對(duì)“AI面試”的工具產(chǎn)品,廣告聲稱“面試者實(shí)時(shí)生成面試答案,輕松拿下Offer”。
這一新聞引發(fā)討論,是因?yàn)橥饨鐩]有人能預(yù)測到,AI大模型之間的碰撞,竟然是率先發(fā)生在面試場景下。這原本應(yīng)當(dāng)是最需要人與人溝通、決策、判斷的場景,隨著AI工具的迅速應(yīng)用,卻變成了“機(jī)器人與機(jī)器人之間的戰(zhàn)爭”。
據(jù)報(bào)道,隨著面試者開始使用AI工具進(jìn)行面試,招聘者則通過AI進(jìn)行“反作弊”,而在反作弊工具出現(xiàn)后,AI面試產(chǎn)品則定向推出了“反檢測”功能。
不論從什么角度看,這都是一場莫名其妙的技術(shù)攻防戰(zhàn)。讓AI來作為面試官,并不應(yīng)當(dāng)是一個(gè)值得推薦的應(yīng)用。面試本質(zhì)上是對(duì)一個(gè)人的綜合評(píng)定,而讓機(jī)器來判斷人,其實(shí)是用大數(shù)據(jù)形成的標(biāo)簽來簡約化對(duì)人進(jìn)行數(shù)據(jù)集的歸類定性。從AI倫理上看,也是對(duì)人的主體尊嚴(yán)的冒犯。
面試者使用AI工具應(yīng)對(duì)AI面試官,從面試的邏輯看,又涉嫌新技術(shù)逼迫下的“作弊”。當(dāng)面試官是人時(shí),AI工具作弊極容易被識(shí)別,但當(dāng)對(duì)面換成了工具,那么,用工具來制衡工具,顯然要比讓人來應(yīng)對(duì)工具的提問更合乎邏輯一些。
這一場技術(shù)戰(zhàn),起源于用人單位對(duì)于“人才”的不重視,視應(yīng)聘者為“工具”,而應(yīng)聘者在此種情境下,干脆用工具去欺騙工具,繼而形成了雙重倫理陷阱:招聘者不視人為人,求職者就坦然在面試中作弊。
這也是AI過度應(yīng)用對(duì)傳統(tǒng)倫理造成的挑戰(zhàn)。我們社會(huì)習(xí)俗中對(duì)面試雙方平等、誠信、尊重的要求,是基于人與人互動(dòng)的關(guān)系而形成的共識(shí)。但對(duì)AI的過度應(yīng)用,使得傳統(tǒng)倫理在這些場景中驟然失效。仔細(xì)揣摩一下面試者的心理,當(dāng)對(duì)方不再是人時(shí),面試似乎就不必再遵循什么“誠信”之類的準(zhǔn)則。
如果回到面試的本質(zhì)上看,面試雙方通過工具來“提升效率”的做法,事實(shí)上都只會(huì)造成雙輸?shù)慕Y(jié)局。
一個(gè)人是否匹配工作崗位,顯然不是單純的履歷和材料等大數(shù)據(jù)可以決定的,還包括了性格、動(dòng)機(jī)、狀態(tài)等多方面。AI工具面試依據(jù)的規(guī)則和數(shù)據(jù),只會(huì)第一輪就篩選掉那些有個(gè)性的、獨(dú)特的、有創(chuàng)造性的人才,而后者顯然才更符合未來人才的定義。
因此,用AI來提升的面試效率,實(shí)際上等于是把人才引進(jìn)的標(biāo)準(zhǔn)交給了機(jī)器,而機(jī)器從概率上只會(huì)繼續(xù)引入“符合機(jī)器定義的機(jī)械性人才”。
而對(duì)于求職者來說,用AI工具來面試,從技術(shù)和商業(yè)邏輯上看,個(gè)體所使用的大模型工具,不可能在技術(shù)水平上長期超越企業(yè)工具。
面試是典型的商業(yè)化應(yīng)用場景一部分,而作為求職工具卻缺少長期穩(wěn)定的付費(fèi)模式,且用戶的付費(fèi)能力較低,因此,后者很可能只是一些套皮的大模型,來收割求職者的韭菜而已。極有可能出現(xiàn)的情況是,求職者為了蒙騙AI面試官,又被人割了韭菜。
為企業(yè)大規(guī)模商業(yè)化應(yīng)用而開發(fā)調(diào)試的大模型,理論上最終肯定比個(gè)人所使用的工具更加高效、精準(zhǔn)。這也意味著,使用者不僅可能被割韭菜,還可能被識(shí)別“作弊”而永久失去一次求職機(jī)會(huì)。對(duì)于求職者來說,這可謂是雙輸?shù)母呶>置妗?/p>
因此,不管是從倫理上看,還是工具使用的最終結(jié)果看,面試都不應(yīng)該成為AI工具的博弈戰(zhàn)場。尤其是其中潛藏的科技倫理問題,值得社會(huì)共同思考。簡單地讓AI工具去決定一個(gè)具體的人的命運(yùn),既有違科技倫理,也有違職業(yè)道德,更長期損害了所有參與者的利益。
編輯 / 徐秋穎
校對(duì) / 付春愔