人工智慧應不應該被用於招聘過程?
開場陳詞
正方開場陳詞
各位評審、對方辯友,大家好。
今天我們討論的,不只是「要不要用AI招人」,而是一個更深的問題:我們是否願意讓招聘,從一場充滿偏見與偶然的抽獎,走向一個更公平、更科學、更人性化的新時代?
我方主張:人工智慧「應該」被用於招聘過程。這不是擁抱科技的浪漫,而是對現行制度的一次理性救贖。
第一,AI能打破「玻璃履歷」的桎梏,實現人才的民主化。
你有沒有想過,一份履歷被看到的機會,往往取決於你的姓氏、學校、甚至照片?研究顯示,同樣履歷換個名字,回覆率差了40%。而AI,只要設計得當,可以忽略性別、年齡、種族,專注於技能與經驗。它不會因為你是「王小明」就懷疑能力,也不會因為你是「林雅婷」就預設她會結婚離職。這不是理想主義,這是用算法對抗無意識偏見的現實武器。
第二,AI讓招聘從「經驗玄學」走向「科學匹配」。
過去HR靠直覺說「這個人氣場很合」,但什麼是氣場?AI卻能分析上千筆成功員工的行為模式,找出真正預測績效的變量——可能是問題解決的邏輯結構,而非名校光環。就像醫療從望聞問切進化到基因檢測,人事管理也該從「我覺得」升級到「數據顯示」。我們不是要AI做最終決定,而是讓它成為HR的「超級輔助腦」,把重複性篩選交給機器,讓人類專注於深度面談與文化契合。
第三,AI能發掘那些「被系統遺忘的人才」。
你認識自學程式設計的單親媽媽嗎?你知道偏鄉考上台大的孩子履歷多單薄嗎?傳統招聘像一道窄門,只放行標準路徑的人。但AI可以從GitHub貢獻、線上課程完成度、專案成果中,看見非典型軌跡的光芒。它不問你畢業於哪所大學,只問你能不能解決問題。這才是真正的機會平等——不是人人一樣,而是人人都有被看見的機會。
當然,對方一定會說:「AI也有偏見啊!」我們同意——但重點是,人類的偏見藏在心裡,AI的偏見寫在程式裡。藏著的偏見難以修正,寫著的偏見卻能被審查、被調整、被優化。我們不怕AI有缺陷,只怕我們因恐懼而拒絕進步。
最後我想說,招聘不該是一場盲目的狩獵,而該是一次精準的相遇。AI不是要取代HR,而是幫助我們找回招聘的初衷:找到對的人,放在對的位置。這不是科技的勝利,而是人性的勝利——因為我們終於有勇氣,用更聰明的方式,實踐公平。
謝謝大家。
反方開場陳詞
各位好。
剛才正方描繪了一幅美好的圖景:AI像個公正的天使,掃除偏見,點亮人才。但我要問:當我們把招聘交給算法,我們是在追求公平,還是在製造一種更精緻的暴力?
我方堅定反對將人工智慧用於招聘過程。因為這不僅是技術問題,更是對人性尊嚴的深刻挑戰。
第一,AI的「客觀」只是神話,它其實是歷史偏見的複印機。
你以為AI不看性別?但它可能從「工程師多為男性」的歷史數據中,學會降低女性候選人的分數。你以為它不看學歷?但它可能發現「主管多來自某幾所大學」,於是自動提高這些學校的權重。這不是科幻,這是現實。亞馬遜曾開發AI招聘工具,結果它歧視女性,只好緊急下架。問題不在AI壞,而在我們給它的數據,本身就是一部壓迫史。我們怎能期待,用染色的水,洗出乾淨的衣服?
第二,招聘不是資料匹配,而是「理解生命故事」的藝術。
有個候選人履歷上有三年空窗,AI可能直接淘汰。但你知道嗎?那三年他照顧罹癌的母親。另一個人換工作頻繁,AI標註「穩定性低」,但其實他是為了追隨創業夢想,在新創間累積經驗。這些故事,這些重量,這些人性的曲折,AI聽不見,也讀不懂。招聘如果只剩下「關鍵字比對」,我們失去的,是同理心,是給人第二次機會的勇氣,是那個曾經跌倒但站起來的靈魂。
第三,AI將創造「數位種姓制度」,固化社會階層。
一旦AI開始評分,每個人就會有一個「求職信用分數」。你面試時的眼神閃爍,被解讀為「誠信度低」;你的語速緩慢,被判定「反應遲鈍」。這些標籤一旦形成,就會跟著你一輩子。更可怕的是,這些評分標準從未公開,你也無從申訴。這不是招聘,這是預先審判。我們正在建造一座看不見的監獄,而鑰匙,掌握在幾個工程師手中。
有人說:「可以用AI初篩,人再複審。」但心理學告訴我們,一旦有了「AI建議分數」,人類就會產生「自動化偏誤」——傾向相信機器的判斷。就像醫生看了AI診斷,就不再仔細看X光片。當HR看到AI標註「低潛力」,他還會花半小時聽你講故事嗎?
最後我想說,人之所以為人,正是因為我們不能被完全預測、不能被完全量化。招聘,本該是兩個靈魂的對話,而不是一場數據的審判。我們不需要更快的篩選,我們需要更多的耐心;不需要更準的預測,而是更多的信任。
把招聘還給人吧。因為唯有人才能理解人,也唯有人才有資格,說一句:「我相信你。」
謝謝大家。
駁斥開場陳詞
正方二辯駁斥
對方一辯剛才講得深情款款,說招聘是「兩個靈魂的對話」。聽起來很美,但我忍不住想問:如果這場對話從一開始就因為你的姓氏被HR跳過履歷而從未發生——那算不算,連靈魂都還沒開口,就被判了死刑?
我方完全同意,招聘不能只靠機器。但問題是,現在這個系統,真的有人性嗎?還是只是披著人情外衣的偏見工廠?
對方提出三個擔憂:AI會複製偏見、無法理解生命故事、造成數位種姓。讓我一一回應。
AI不是偏見的複印機,而是可審查的鏡子
對方提到亞馬遜AI歧視女性,所以AI不可信。但我想提醒各位:正因為AI把偏見「寫了出來」,我們才知道它存在!如果是人類主管默默把女性履歷放一邊,你怎麼查?怎麼申訴?怎麼改?
AI的優勢正在於它的「可審計性」。我們可以追蹤它的決策路徑、測試它的公平性、甚至加入「反向校正機制」——比如強制要求男女錄取比例不得偏差超過5%。這就像給招聘裝上「黑盒子」,飛機出事能查原因,人事決策也能溯源。
相比之下,人類的偏見藏在潛意識裡,今天覺得「這人眼神閃爍像心虛」,明天說「那個人氣場不合」,這些直覺判斷既無法驗證,也無法修正。我們不是要擁抱有缺陷的AI,而是要利用AI,照出人類自己都不願面對的陰影。
所謂「生命故事」,往往只是特權的修辭
對方說:「有人三年空窗是在照顧母親,AI卻只看到缺口。」
這確實令人心疼。但我要問:有多少人,其實根本沒機會講這個故事?
現實是,90%的履歷在前30秒就被淘汰。那個照顧母親的人,可能連面談門檻都沒達到。而AI,恰恰可以幫我們翻到那些被忽略的頁面——透過分析非傳統指標,比如她在照顧期間仍完成線上課程、參與遠端專案,甚至在社群分享照護經驗所展現的組織能力。
更重要的是,「聽故事」這件事,本身就是階級特權。名校畢業、口條清晰的人,擅長包裝逆境;但沉默的勞工、內向的工程師、非母語者呢?他們的故事,往往被當成「表達能力差」而忽略。AI若能先基於客觀成果評估,反而讓更多「不會說話但會做事」的人,走進面談室。
數位種姓?還是現行制度早已是血統論?
對方警告AI會創造「求職信用分數」,形成數位種姓。但請問:今天的社會不是 already 有種姓嗎?
你出生在台北大安區還是屏東鄉下?讀建中還是社區高中?這些早已決定你收到多少面試通知。AI的風險需要警惕,但我們不能因為害怕新工具的副作用,就否認它打破舊結構的潛力。
與其恐懼AI標籤,不如推動「演算法透明法」——要求企業公開篩選標準、提供申訴管道、禁止永久性評分。科技不是命運,制度才是關鍵。我們要的不是拒絕AI,而是用更好的規則,讓AI成為促進流動的槓桿。
總結來說,對方描繪的是一幅悲觀圖景:AI邪惡、人類純粹。但現實更複雜——人類制度充滿偏見,而AI雖有缺陷,卻提供了前所未有的修正可能。
與其浪漫地懷念那個從未真正公平的「人性時代」,不如務實地打造一個「可問責、可改善、可擴展」的新系統。
謝謝大家。
反方二辯駁斥
正方一辯說,AI能打破玻璃履歷,實現人才民主化。聽起來像科技烏托邦,但我要提醒大家:當我們把「民主」交給算法,很可能換來的不是平等,而是一套更精密的菁英主義操作系統。
讓我從三個層面回應正方的樂觀預設。
「去偏見」的幻覺:誰定義什麼是「正常」?
正方說AI可以忽略性別、年齡、種族。但忽略不代表不存在。AI依賴歷史數據訓練,而這些數據本身就記錄著數十年的歧視模式。更危險的是,AI會用「代理變量」偷偷恢復偏見——例如,它發現「住在某個區域的人離職率高」,而那個區域剛好是少數族群聚居地。於是,地理資訊成了種族的替身,歧視穿上了「客觀分析」的外衣。
這不是理論。美國醫療AI曾被發現,在評估病人照護需求時,系統性低估黑人患者的病情嚴重度——因為它用「過去的醫療支出」作為健康指標,而黑人因資源不足,花費較少。結果,明明更需要幫助的人,被AI判定為「風險較低」。
正方說我們可以「校正」AI。但問題是,校正的標準是誰訂的?是由企業、工程師、還是政府?當「公平」變成一個可調整的參數,它就不再是原則,而是一場利益協商。你調高女性錄取率,股東問:會不會影響績效?你降低名校權重,主管抗議:這樣找得到人嗎?最終,所謂「公平算法」,可能只是迎合資本需求的另一種包裝。
科學匹配?還是將人簡化為數據點?
正方說AI能從GitHub、線上課程看出真本事。但這背後有一個危險假設:所有人的價值,都能被數位足跡捕捉。
那沒有網路的偏鄉學生呢?
那因經濟壓力必須打工而沒時間做Side Project的青年呢?
那不擅長自我行銷、從不在LinkedIn發文的資深專家呢?
AI眼中的「非典型人才」,其實仍是某種「新典型」——懂英文、會用GitHub、有穩定網路、能產出數位痕跡的人。其他人,則被歸類為「資料不足」,直接邊緣化。
這就像用GPS找路,卻忘了有些人走路不開手機。你說系統很精準,但精準的前提是——你願意被追蹤。
更荒謬的是,有些公司開始用AI分析「微笑弧度」、「語尾上揚頻率」來評估候選人「積極性」。於是,抑鬱症患者、自閉傾向者、文化上較含蓄的人,全被貼上「低適配」標籤。這不是科學,這是情緒暴政。
當「輔助工具」變成「隱形上司」
正方說:「AI只是輔助,最終由人決定。」但心理學研究早已證明——一旦出現「機器建議」,人類就會自動降級為執行者。
這叫做「自動化偏誤」(Automation Bias)。醫生明知AI診斷錯誤,仍照開藥;駕駛看到導航說「前方無車」,即使肉眼看到行人仍踩油門。同樣地,當HR看到AI標註「此人潛力值72分」,他還會花40分鐘細讀那份充滿手寫筆記的履歷嗎?他會相信一個眼神躲閃但言之有物的候選人嗎?
更糟的是,這種影響是隱形的。HR不會承認「我因為AI打低分所以沒錄取他」,他會說:「我覺得氣氛不合。」於是,AI的偏見,透過人類之手,完成了完美的洗白。
最後,我想點出一個更深的危機:我們正在把「用人決策」從道德領域,轉移到技術領域。
過去,錄取一個人,是基於信任、直覺、甚至冒險精神——「我相信他能做到」。
現在,我們問:「他的數據夠不夠好?」
前者是人與人之間的承諾,後者是系統對個體的評分。
當招聘變成一場數據審判,我們失去的不只是同理心,更是作為人,給予他人第二次機會的勇氣與責任。
正方說他們要的是「更聰明的公平」。但真正的公平,有時恰恰來自於「不那麼聰明」的選擇——比如,給一個曾入獄但真心悔改的人一次機會;比如,錄取那個履歷普通但眼神堅定的年輕人。
這些決定,無法被算法量化,卻正是人性最珍貴的部分。
所以,與其問「AI能不能用」,不如問:「我們想成為什麼樣的社會?」
是一個追求效率最大化、人人被評分的控制社會?
還是一個願意等待、願意相信、願意犯錯的溫暖社會?
我們反對的不是科技,而是將人類命運交給黑箱的傲慢。
把招聘還給人吧——因為唯有人才能理解人,也唯有人才能說:「我賭你會成功。」
謝謝大家。
交叉質詢
正方三辯提問
正方三辯:
謝謝主持人。我有三個問題,想請教反方三位辯友。
第一個問題,請問反方一辯:
您剛才深情地說,招聘是「兩個靈魂的對話」。但我想問——如果這場對話從來沒有開始過,因為HR看到「王姓」就覺得能力普通、「林姓」就懷疑婚育計畫,那這到底是「靈魂的相遇」,還是「姓氏的審判」?既然人類的偏見早已讓這場對話不平等,為何您仍堅持要守住一個從未真正公平的「人性神話」?
反方一辯:
我承認現行制度有缺陷,但這不代表我們該用另一種更隱蔽的不公來取代它。AI的問題在於,它把偏見標準化、規模化,讓歧視變成一條寫死的程式。我們應該改革人性,而不是放棄人性。
正方三辯:
感謝回答。第二個問題,請問反方二辯:
您提到AI會用「代理變量」偷偷恢復偏見,比如用居住地推斷種族。但我想問——人類HR難道不會嗎?他看到住址,心裡難道不會浮現「那個區的人比較難管」?差別只在,AI的偏見可以被審計,而人類的偏見,只能靠良心自我檢討。請問,在缺乏透明機制的情況下,您憑什麼相信「人性自省」比「算法審查」更可靠?
反方二辯:
良心當然不完美,但正是因為不完美,才需要人與人之間的責任與對話。AI把決策變成技術問題,就逃避了道德責任。當錯誤發生,你不能去責備一行程式,但你可以要求一位HR解釋他的選擇。
正方三辯:
很精彩的回應。最後一個問題,請問反方四辯:
假設今天有一個自學程式、在夜市擺攤維生的青年,他沒有名校學歷,履歷單薄,但GitHub上有亮眼專案。傳統HR可能直接淘汰他,但AI能從代碼品質中看見他的潛力。請問,在這種情況下,拒絕使用AI,究竟是保護了他,還是剝奪了他唯一被看見的機會?
反方四辯:
我們關心的是系統性風險。即使AI能幫助少數人,但如果多數人因此被標籤化、被預測、被限制,那這種「拯救」是否只是犧牲多數換取少數的偽善?而且,誰來確保這位青年的資料不會被用來訓練出歧視夜市工作者的模型?
正方質詢總結:
感謝三位反方辯友的回應。我聽到了三個關鍵詞:「人性」、「良心」、「責任」。但我想提醒大家——當我們用這些美好的詞彙捍衛現行制度時,是否忽略了那些從未被人性眷顧的人?
反方一面批判AI的偏見,一面卻對人類偏見的普遍性輕描淡寫;一面擔心AI誤判,一面卻接受每年數百萬份履歷在30秒內被丟進垃圾桶的「合法忽視」。
他們想要一個完美的系統,卻否決了所有不完美的改進。
這不是謹慎,這是浪漫的懶惰。
如果「人性」意味著容忍無數看不見的不公,那我們寧願用AI這面鏡子,照出陰影,然後一起修正它。
反方三辯提問
反方三辯:
謝謝主持人。我也準備了三個問題。
第一個問題,請問正方一辯:
您說AI可以忽略性別、年齡、種族,專注於技能。但我想問——如果一位女性候選人因生育中断職涯三年,AI根據「職涯連續性」扣分,這算不算一種性別歧視?即使它沒標註「女性」,但它的評估標準,本質上就是對女性更不利。您還認為這叫「公平」嗎?
正方一辯:
這確實是風險,但這正是我們可以修正的地方。我們可以在模型中加入「育兒間隔豁免條款」,或加權計算照顧期間的非正式學習成果。重點是,AI的規則可以調整,而人類主管的「她以後會結婚吧」這種念頭,誰能調整?
反方三辯:
有趣。第二個問題,請問正方二辯:
您提到AI能分析GitHub、線上課程來發掘非典型人才。但請問——那些沒有穩定網路、無法上傳作品、或文化上不習慣自我展示的人呢?當AI只看得見「願意且能夠被數據化」的人,這是不是正在創造一種新的數位菁英階級?您所謂的「民主化」,是否其實只是把門檻從「學歷」換成「數位足跡」?
正方二辯:
這是一個重要提醒。但我們不能因為有人走不進圖書館,就燒掉所有書籍。與其否定AI,不如推動數位平權——提供公共設備、簡化上傳流程、納入非數位成果。AI不是終極解方,而是擴大機會的槓桿。
反方三辯:
最後一個問題,請問正方四辯:
您說AI只是「輔助工具」,最終由人決定。但心理學研究顯示,一旦出現AI建議,人類服從率高達85%。就像導航說「前方無車」,你就算看到行人也會踩油門。那麼,當HR看到AI標註「此人情緒穩定度偏低」,他還會給那位略顯緊張但真誠的候選人第二次機會嗎?還是直接說「氣氛不合」就打勾放棄?
正方四辯:
自動化偏誤確實存在,但這正是我們需要教育與制度設計的原因。例如,規定AI不得評估情緒,或要求HR在否決AI建議時必須書面說明理由。科技的風險,要用更好的治理來化解,而不是退回前現代。
反方質詢總結:
感謝正方三位辯友的回應。我聽到最多的一句話是:「問題不在AI,而在怎麼用。」
但我要提醒大家——當一把槍被設計成每天射出上千顆子彈,我們不能只說「問題在扣扳機的人」。
AI的本質是規模化、自動化、標準化,而招聘的本質是個別化、情境化、人性化。
正方不斷說「可以修正」、「可以調整」、「可以教育」,彷彿所有問題都能靠「未來的善意」解決。
但現實是,一旦企業發現AI能省下90%初篩成本,誰還願意花錢做「算法透明」?誰敢違抗「系統建議」錄取一個低分者?
他們描繪的是一幅「理想國」,但我們正走向的,可能是一場「數據暴政」的溫水煮青蛙。
與其相信技術烏托邦,不如守住那句簡單的話:
用人,就該由人來決定。
自由辯論
正方一辯:
對方一直說「把招聘還給人」,但我想問——如果這個人剛好是十年前拒錄你的那位主管呢?他說「氣場不合」,你連申訴都沒有紀錄。而AI起碼留下足跡,可以審計。你們要的不是「還給人」,是要還給那群從未公平過的人嗎?
反方一辯:
所以你就把希望寄託在一個會把「照顧母親」解讀成「職涯缺口」的系統上?你說有紀錄就能審計,但誰來看?勞工能請律師查AI怎麼算出他「穩定性低」嗎?這不是透明,是把門焊死後貼張密碼鎖!
正方二辯:
對方好像認為所有HR都是聖人,只會被AI腐化。但現實是,很多HR每天刷五百份履歷,三十秒淘汰一人。這不是人性,是人力崩潰!我們需要AI處理「量」,人才有餘力實踐「質」——否則,所謂深度面談,只是給名校生的特權禮遇罷了。
反方二辯:
哈!原來你是怕HR太累,所以找個機器代工?但招聘又不是外送餐點,可以「快速配送」。你用AI初篩,就像約會App先看照片滑掉九十九人——有些人值得認識,是因為他們不該被滑掉,而不是符合什麼演算法偏好!
正方三辯:
好,那我問你:一個自學程式、作品集豐富但沒學歷的青年,今天能被看見,是不是因為越來越多企業用AI分析GitHub貢獻?你口中的「不該被滑掉的人」,正是AI幫我們翻出來的!你們反對的不是AI,是害怕標準不再由你們定義吧?
反方三辯:
笑死,你們以為AI真的會看GitHub?多數企業買的是SaaS套裝軟體,輸入「畢業學校+工作年資+關鍵字」就打分數。那個自學者若沒寫「Python」兩個字,就算開發過十個專案也會被當廢物清除。你們歌頌的「非典型人才」,其實還是活在新版本的框框裡!
正方四辯:
那就改啊!正因為我們能看到問題,才能推動「演算法稽核」、「公開評分標準」、「禁止永久標籤」。但如果是人類主管私下歧視,你連改革的起點在哪都不知道。AI的缺陷是明瘡,人類的偏見是暗疾——你要先承認自己生病,才治得了病!
反方四辯:
說得真誠懇,但企業老闆聽了只想笑:「稽核?公開?那我的競爭優勢不就曝光了?」現實是,多數公司導入AI只為了降低成本,不是追求公平。你們想像的監管天堂,敵不過一句「法規還沒跟上」。與其相信技術烏托邦,不如守住那句簡單的話:用人,就該由人來決定。
正方一辯(接續):
所以你的意思是——既然制度可能失靈,我們就放棄所有改革?那法律也別訂了,反正總有人違法?這種消極防禦,才是真正的科技恐懼症!
反方一辯:
我們不是恐懼科技,而是警惕「用效率正義包裝的控制慾」。當你說「交給AI才公平」,其實是在說:「我不信任人的判斷,只相信數據的神諭。」但人之所以能用人,正因為我們有能力超越數據,說一句:「我賭你會成功。」
正方二辯:
可惜啊,這個「賭」字,向來只押在特定面孔上。弱勢者等的不是貴人慧眼,而是一扇不會因姓氏就被關上的門。AI至少能確保——起跑線上的喇叭聲,是同時響起的。
反方二辯:
但終點線呢?如果AI定義的成功路徑只有單一模組,那根本是換條跑道繼續歧視!你打開了門,卻在屋內設滿雷射感應——只要走路姿勢不符合「標準人類」,警報就響。這叫包容嗎?這叫數位整形!
正方三辯:
所以你寧願維持現在這套——靠關係、拼口條、比家境的隱形門檻?至少AI讓遊戲規則攤在陽光下,大家可以一起修改規則。你們反對的,難道不是那種「只有我能定義誰夠格」的特權壟斷嗎?
反方三辯:
聰明,把我們說成既得利益者。但真正危險的,是你們把「公平」外包給一行行看不懂的程式碼。今天工程師調個參數,明天就有十萬求職者被打上「低適配」。這不是去中心化,是把權力集中到更少人手上——而且他們不用負任何道德責任!
正方四辯:
那就立法、監管、全民參與!民主制度也是這樣走過來的。不能因為有人濫用權力,就說「不要政府」。同樣地,不能因為AI可能失控,就否定它帶來的修正可能。真正的進步,是邊走邊修,而不是站在原地喊「回頭是岸」!
反方四辯:
但有些岸,回頭就再也看不到光了。當我們習慣聽從AI建議,慢慢就會忘記怎麼做判斷。最後,不是人在用工具,而是工具在訓練人。那一天,當HR看著候選人說「我相信你」,心裡想的卻是:「AI給你78分,我只能服從。」——那時,我們失去的,不只是招聘,而是作為決策者的尊嚴。
結辯
正方結辯
各位評審、對方辯友:
這場辯論,我們談了很多技術細節:偏見、數據、演算法透明……但我想回到最起初的一個問題:
誰,有資格被看見?
今天,有個住在屏東的單親媽媽,自學程式設計三年,在GitHub上有五十個貢獻專案。她的履歷沒有台大光環,照片也不夠「專業微笑」。在現行制度下,她可能連第一關都過不了——因為HR三秒鐘掃過,心想:「這背景,應該不行吧?」
而AI呢?它不會眨眼。它會讀她的程式碼,分析她的邏輯結構,比對成功開發者的特徵模式。它可能給她一個機會,讓她走進面談室,說出那句:「我做這些,是想給孩子更好的生活。」
這不是科技奇蹟,這是基本正義。
對方一直說:「AI有偏見!」我們同意——但請記住:人類的偏見藏在心裡,AI的偏見寫在程式裡。
藏著的,永遠改不掉;寫著的,我們可以審查、可以修正、可以集體監督。這才是真正的 accountability(責任制)。
對方又說:「AI不懂故事。」但現實是,大多數人的故事,根本沒機會被聽見。
當90%的履歷在30秒內被淘汰,所謂「深度對話」,只是給少數人的特權禮遇。而AI,恰恰能翻過那一頁,讓那些沉默的多數,不再因姓名、性別、出身而被跳過。
我們從來不主張「AI做最終決定」。我們主張的是:把機器放在前端,處理重複、客觀、可量化的篩選;把人放在後端,專注於文化契合、潛力判斷、同理聆聽。這不是取代,而是分工——讓人類更像人,而不是當人工的履歷碎紙機。
有人害怕AI創造「數位種姓」。但今天的社會,早已是血統論的牢籠。你爸媽的收入、你家的學區、你的畢業學校,早就決定了你的起跑線。與其維持這個看不見的階級,不如建立一個可挑戰、可申訴、可透明的系統——即使它不完美,至少我們看得見規則,也改得動規則。
最後,我想回應對方那句動人的话:「唯有人才能說我相信你。」
我完全同意——但前提是,那人得先有機會站在你面前。
如果招聘是一場相遇,我們要的不是更快的篩子,而是更寬的門。AI,就是那扇我們一起打造的門——它不會微笑,但它不會歧視;它不懂眼淚,但它會計算努力的重量。
所以,我們堅定地相信:人工智慧「應該」被用於招聘過程。
不是因為它完美,而是因為它可進步;
不是為了取代人性,而是為了實現更廣大的公平。
謝謝大家。
反方結辯
各位好。
正方說,AI能打開那扇門。但我忍不住想問:當門背後是一間由代碼審判的法庭,我們真的還能自由行走嗎?
這場辯論,我們聽到很多「效率」、「科學」、「數據驅動」。但招聘,本質上是一場「信任的冒險」。
錄取一個人,不只是評估他過去做了什麼,更是相信他未來能成為什麼。這種相信,無法被模型預測,不能被參數調整,更不該被一分一毫地打分。
正方說AI能看見那個單親媽媽的努力。但我想提醒:AI看見的,是她的GitHub紀錄——那如果她沒網路呢?如果她邊打工邊自學,根本沒時間上傳作品呢?
AI眼中的「非典型人才」,其實仍是某種「可追蹤」的人才。其他人,那些無法數位化的生命,將在無聲中被排除。
更重要的是,當我們開始依賴AI初篩,人類的責任感,正在悄悄退場。
心理學研究顯示,一旦出現「機器建議」,85%的人會跟從——即使明知有誤。這不是輔助,這是卸責。HR不再需要問:「為什麼這個人值得給機會?」他只需要說:「AI說他分數低。」
於是,歧視完成了最完美的轉身:從「我覺得他不行」,變成「數據顯示他不行」。
前者還能爭辯,後者已是鐵證如山。
對方說:「AI的偏見可以修正。」但誰來定義什麼叫「公平」?是企業老闆?工程師團隊?還是政府官僚?
當「公平」變成一個可調的滑桿,它就不再是道德原則,而是一場利益協商。你調高弱勢群體的權重,股東問:會不會影響KPI?你降低名校分數,主管抗議:這樣找得到人嗎?
最終,所謂「修正」,只是換一套標準繼續排除。
我們反對的,不是科技本身,而是將「用人決策」交給黑箱的傲慢。
招聘,不該是一場數據的審判,而該是一次生命的對話。
它應該容許錯誤——比如錄取了一個曾入獄但真心悔改的人;
它應該保留溫柔——比如給那個眼神躲閃卻言之有物的青年一次解釋的機會;
它應該擁抱不確定性——因為人,本就不該被完全預測。
正方描繪的,是一個更聰明的系統。
但我們想要的,是一個更溫暖的社會。
所以,與其問「AI能不能用」,不如問:「我們想成為什麼樣的人?」
是願意相信、願意等待、願意為他人擔風險的人?
還是只敢相信數據、只願跟隨分數、把責任推給程式的執行者?
把招聘還給人吧。
因為唯有人才能理解孤獨,也唯有人才能看著另一雙眼睛,說出那句最珍貴的話:
「我賭你會成功。」
謝謝大家。