Download on the App Store

AIによる人事評価は公平か、それとも偏見を助長するか?

開会の主張

肯定側の開会の主張

皆さん、こんにちは。
私たち肯定側は、こう断言します――

「AIによる人事評価は、人間の無意識的バイアスを超えて、真に公平な評価システムを実現するための不可避かつ進歩的な手段である」

この主張には、三つの柱があります。

第一に、AIは「感情や先入観」を持たない評価者として、人間の主観的偏見を排除できる

私たちは誰もが知っています。面接官が疲れている時、気分が優れない時、あるいは単に「雰囲気が合わない」と思った瞬間、候補者は不公平な扱いを受けることがあります。
ある研究では、同じ履歴書でも「白人風の名前」より「少数民族風の名前」のほうが書類選考通過率が40%低いという結果が出ています(カナダ・マクマスター大学、2019)。

AIはこうした「見た目」「名前」「出身地」に左右されません。
学歴、経験、スキル、成果――数値化可能な指標に基づいてのみ判断する。
これは「公平」の第一歩です。

第二に、AIは「透明性」と「再現性」を持つことで、評価プロセスの信頼性を高める

人間の評価は「ブラックボックス」です。「どうして落とされたのか」――応募者は永遠にわかりません。
しかし、AIであれば、アルゴリズムのロジックを可視化し、何が重み付けされているかを開示することが可能。
例えば、Googleの「People + AI Research(PAIR)」プロジェクトでは、AIがなぜ特定の候補者を推薦したかをインタラクティブに説明するツールを開発しています。

これこそが「説明責任」の時代にふさわしい人事評価です。

第三に、AIは「継続的学習」を通じて、社会の変化に適応する柔軟性を持つ

「AIは過去のデータから学ぶから、偏見を再生産する」という批判があります。
確かに、その通りです――もし放置すれば。

しかし、それは「AIが悪い」のではなく、「使われ方が悪い」だけです。
医療AIが初期には肌の色による診断誤差があったとしても、データセットを多様化し、フィードバックループを回すことで改善されてきたように、人事AIも同じ道を歩めます。

重要なのは、「完全な中立」を求めることではなく、「人間より改善され得る」かどうかです。
そして、私たちはすでにその証拠を持っています。
UnileverがAI導入後、採用者の多様性が30%向上したという報告(Harvard Business Review, 2021)――これは偶然ではありません。

もちろん、AIが万能だとは言いません。
しかし、人間の偏見に任せ続けるより、AIを「監視しながら進化させる」選択肢こそが、公正への現実的な道ではないでしょうか。

今日の議論の価値基準はこれです――
「どちらが、より多くの人々に公平な機会を提供できるか」

その基準に照らせば、答えは明確です。
AIによる人事評価は、偏見を助長するのではなく、それを克服するための希望の光なのです。


否定側の開会の主張

皆さん、こんにちは。
私たち否定側は、こう断言します――

「AIによる人事評価は、表面的な客観性の裏で、構造的偏見をデジタル化・正当化する危険な装置である」

一見すると「数字で判断するAI」は公平に見えます。
しかし、その背後にあるのは、過去の不正義をデータとして焼き付けられたプログラムです。

私たちの主張は、三つの深い層から成り立っています。

第一に、AIは「偏見を自動化する鏡」であり、差別を正当化する新しい武器になる

AIは「学習する」と言いますが、何から学ぶのか?
答えは簡単――過去の人間の行動記録です。

もし、過去に女性やマイノリティが管理職に登用されにくかったら?
AIはそれを「正常なパターン」と判断し、「彼女たちは leadership material ではない」と学習します。
AmazonのAI採用ツールが、女性志願者を自動的に減点していた事件(Reuters, 2018)――これは失敗ではなく、必然です。

AIは「偏見を消す」のではなく、「偏見を数学的に正当化する」のです。

第二に、AIの「黒箱性」は、不正に対する抗弁の機会を奪う

人間の上司なら、「どうして昇進できなかったんですか?」と尋ねることができます。
しかし、AIに尋ねても、返ってくるのは「スコアが足りませんでした」という冷たい出力だけ。

しかも、そのスコアの算出根拠は企業の「商業的秘密」として隠されることがほとんど。
ドイツでは、AIによる解雇に対して「説明請求権」を労働者が行使できないことから、労働組合が大規模な抗議を行いました。

公正とは、「結果の平等」ではなく、「プロセスの透明性と救済の可能性」です
AI人事評価は、この基本的人権的な要求を踏み潰します。

第三に、AIは「多様な価値」を理解できない――人間らしさを測れない

仕事とは、数字だけではありません。
チームの空気を読む力、困難に立ち向かう粘り、失敗から学ぶ姿勢――これらはAIが測れない「人間的資質」です。

AIは「過去に成功した人の特徴」を模倣します。
つまり、既存のエリートのコピーを量産する機械にすぎない。

多様性とは、「似た者同士を集める」ことではなく、「違う考えを持つ者を歓迎する」ことです。
AI人事評価は、その多様性の芽を、最初のスクリーニングで摘んでしまう。

「公平」とは、全員を同じ物差しで測ることではありません。
弱者に寄り添い、ハンディキャップを考慮し、未来の可能性を見ることこそが、真の公正です。

今日の価値基準はこれです――
「どちらが、人間の尊厳と共感に基づいた評価を可能にするか」

その基準に照らせば、AI人事評価は「効率の儀式」に過ぎず、
公平の仮面を被った、新たな差別の始まりに他なりません。

開会主張への反論

肯定側第二発言者の反論

皆さん、否定側の主張を聞いて、とても印象的でした。しかし、その美しい言葉の裏には、いくつかの根本的な論理の飛躍があります。

まず、「AIは偏見を自動化する鏡」という主張について

否定側は「AIは過去の不正義をデータとして焼き付ける」と言いますが、これはAIの本質を誤解しています。

AIは単なる「鏡」ではありません。それはむしろ「フィルター」です。そして、そのフィルターの性能は、私たちが設計するものです。

例えば、否定側が引用したAmazonの事例は、まさにその証拠です。AIが女性を差別することを発見したのは誰ですか?そう、AI自身の検証プロセスです。そして、その問題が発覚した後、Amazonはそのシステムを修正しました。

これは「AIが悪い」のではなく、「初期のAIが不完全だった」だけです。車の初期モデルが事故を起こしたからといって、車自体を否定しますか?

次に、「AIは多様な価値を理解できない」という主張

これは非常に興味深い指摘ですが、逆説的です。なぜなら、人間こそが「多様な価値を理解できない」存在だからです。

私たちは無意識のうちに、自分と似た人を好みます。これは心理学で「類似性バイアス」として知られています。

AIは、人間が気づかない「多様性の可能性」を発見できるのです。例えば、ある企業がAIを導入したところ、従来の面接では見落とされがちな「異なる背景を持つ才能」を発掘できました。

最後に、「AIは救済の可能性を奪う」という主張

これは全くの誤解です。AIシステムは、むしろ「より多くの救済データ」を提供します。

人間の評価者は「なぜ落としたのか」を明確に説明できないことが多い。しかし、適切に設計されたAIは、評価の根拠をすべて記録し、必要に応じて開示できます。

重要なのは、「AIを使うか使わないか」ではなく、「どのようにAIを使うか」です。

私たち肯定側は、AIを「完璧な神」として崇めるのではなく、「人間の限界を補うツール」として位置づけています。


否定側第二発言者の反論

皆さん、肯定側の反論を聞いて、ますます危惧を深めています。彼らの主張は、技術的楽観主義に基づいていますが、現実はもっと複雑です。

AIは「フィルター」ではなく「増幅器」である

肯定側は「AIはフィルターだ」と言いますが、現実には「偏見の増幅器」として機能しています。

彼らが言う「継続的学習」は、実は「偏見の強化」になりかねません。なぜなら、AIが「正しい」と判断する基準自体が、すでに偏ったデータから形成されているからです。

医療AIの例を挙げられましたが、それは医療と人事では根本的に異なります。医療では「正解」が比較的明確ですが、人事評価には「唯一の正解」など存在しません。

「設計する」という幻想

肯定側は「AIの性能は私たちが設計する」と言いますが、これは技術的な現実を無視しています。

現代の深層学習モデルは、しばしば「解釈不可能」な状態になります。GoogleのPAIRプロジェクトが開発を続けているのは、まさにこの問題があるからです。

私たちが「AIを監視しながら進化させる」と言うとき、その「監視」自体を誰がするのでしょうか?同じ偏見を持った人間が嗎?

根本的な問題:評価の本質

肯定側は「数値化可能な指標」の重要性を強調しますが、これこそが問題の核心です。

人事評価とは、単なる「スキルの合計」ではありません。それは「人間同士の関係性」と「組織文化への適合性」を含む複合的な判断です。

AIが「チームの空気を読む力」を評価できないことは、彼ら自身が認めています。では、なぜその不完全なツールを「公平」と呼べるのでしょうか?

真の公平とは、「一人ひとりの独自性を認め、多様な価値観を尊重すること」です。AIは、この本質的な要求に応えることができません。

私たちが主張するのは、AIの廃止ではありません。AIを「補助ツール」として使うことの危険性についてです。

技術は進歩しますが、人間の尊厳は進歩の対象ではありません。それは守るべき価値です。

反対尋問

肯定側第三発言者の質問

肯定側の反対尋問の内容と否定側の回答

肯定側第三発言者:
第一に、否定側第一発言者へ。
先ほど、「AIは過去の偏見をデータとして焼き付ける」と述べました。では、お尋ねします――
「人間による人事評価は、過去の偏見を焼き付けていないと言えるでしょうか? 例えば、同じ会社で20年間、女性管理職がゼロだったとしても、それは“中立的”な評価結果だと主張できますか?」

否定側第一発言者(回答):
いいえ、そうは言いません。人間の評価にも偏見は存在します。しかし、私たちが問題にしているのは、その偏見がAIによって“数学的に正当化され、スケールアップされる”点です。人間の偏見は対話で修正できますが、アルゴリズムの偏見は“客観的な数字”として振る舞い、抗議を難しくするのです。


肯定側第三発言者:
第二に、否定側第二発言者へ。
先ほど、「AIは解釈不可能なブラックボックスだ」と述べていました。では、お尋ねします――
「あなたが直属の上司に昇進を断られた時、“気分じゃない”と言われるのと、“AIのスコアが足りませんでした”と言われるのと、どちらが説明責任を果たしていると言えますか?」

否定側第二発言者(回答):
前者は非合理ですが、後者は“合理性の仮面”を被った抑圧です。
「気分じゃない」は少なくとも対話の余地があります。「あなたの能力は認めるが、チームとの化学反応が……」など、フィードバックが得られる。
しかし、「AIのスコアが足りない」は、根拠のない権威です。なぜそのスコアなのか? どの要素がどう評価されたのか? それが開示されなければ、それは“デジタル独裁”と変わりません。


肯定側第三発言者:
第三に、否定側第四発言者へ。
最後に一つ。あなた方は「AIは人間らしさを測れない」と主張します。では、お尋ねします――
「もしAIが、従業員のメンタルヘルスの変化、チーム内の非言語的コミュニケーションの質、失敗からの学びの速度を、ウェアラブルやチャットログから学習して評価できるようになったら、それでも“人間らしさを理解できない”と断じますか? あるいは、その瞬間、あなた方は新たな“人間らしさの壁”を築きますか?」

否定側第四発言者(回答):
技術の進歩は否定しません。しかし、測定可能な“ふり”をすることが、本物の理解を意味するわけではありません
感情の揺らぎを数値化することはできても、その背景にある人生の重みをAIが共有できるでしょうか?
AIが“共感したふり”をする社会――それは、感情まで最適化される恐怖の世界です。私たちは評価されるために生きているのではなく、評価を超えて尊重されるために生きているのです。


肯定側反対尋問のまとめ

以上三つの質問を通じて、明確になったことがあります。

まず、否定側は「人間の偏見」を認める一方で、「AIの偏見」だけを異常に厳しく裁いています。これはダブルスタンダードです。両者に問題があるなら、より改善可能な方を選ぶべきではないでしょうか?

第二に、「説明責任」について。否定側はAIの説明不足を批判しますが、人間の説明はしばしば主観的・情緒的です。AIは記録可能であり、逆により精緻な説明が可能です。

第三に、「人間らしさ」の問題。否定側はそれを崇高なものとして掲げますが、その基準は流動的です。昨日まで「人間らしい」とされていたものが、今日では「非効率」と切り捨てられることもあります。

AIが完璧ではないことは承知しています。
しかし、“完璧な公平”を求めるあまり、“明らかに不公平な現状”を維持し続けること――それこそが、私たちが避けなければならない最大の不正義です。


否定側第三発言者の質問

否定側の反対尋問の内容と肯定側の回答

否定側第三発言者:
第一に、肯定側第一発言者へ。
先ほど、「UnileverのAI導入で多様性が30%向上した」と述べました。では、お尋ねします――
「その“多様性”とは、具体的に何の多様性ですか? 肌の色? 性別? それとも、思考の多様性ですか? AIが選んだ候補者が、実は“異なる背景を持つが、同じ価値観のコピー”であれば、それは“多様性の擬似体験”ではないでしょうか?」

肯定側第一発言者(回答):
そのデータは、人種・性別・年齢層の多様性を指しています。そして確かに、価値観の多様性までは測りきれません。
しかし、まずは可視化できる多様性から始めなければ、見えない多様性など訪れない
AIは“異なる出発点”を持つ人々にチャンスを与えるプラットフォームです。そこから、人間が対話を通じて“見えない多様性”を育む――それが現実的なプロセスです。


否定側第三発言者:
第二に、肯定側第二発言者へ。
先ほど、「AIはフィルターであり、設計次第で偏見を除去できる」と述べました。では、お尋ねします――
「その‘設計’を行うのは誰ですか? シリコンバレーのエンジニアたちですか? 彼らが‘公正’の基準を決めることに、アジアやアフリカの労働者は同意していますか? 公正とは、トップダウンで設計されるものでしょうか?」

肯定側第二発言者(回答):
良いご指摘です。だからこそ、AIの設計には多様なステークホルダーの参加が必要です。
HR専門家、労働者代表、倫理学者、地域コミュニティ――これらが協働するガバナンス体制こそが、真の公正を生む土台です。
技術は中立ではないかもしれませんが、プロセスは民主的にできる。それが、私たちの提案する“参与型AI”です。


否定側第三発言者:
第三に、肯定側第四発言者へ。
最後に。あなた方は「AIは改善可能だ」と言います。では、お尋ねします――
「もしAIが、“勤務時間中にトイレに行く回数が多い”というデータから“生産性が低い”と結論付けたら、それを誰が修正しますか? その判断基準を‘不条理’だと見抜くのは、AIですか? それとも、人間の‘常識’ですか? 最終的に、人間の価値判断に頼らざるを得ないのなら、なぜ最初からAIに評価を任せようとするのですか?」

肯定側第四発言者(回答):
そのようなバグは、実際に発生しうるでしょう。しかし、バグがあるからといってソフトウェアを全否定する人はいません
重要なのは、その不条理を検出し、修正するフィードバックメカニズムです。
人間がAIを監視し、AIが人間のバイアスをチェックする――相互補完の関係こそが、未来の人事の姿です。


否定側反対尋問のまとめ

以上三つの質問で、肯定側の根本的な盲点が明らかになりました。

第一に、「多様性」の定義の曖昧さ。AIが選ぶ“多様な人”は、実は表面的な属性の多様性に過ぎず、組織内での発言の自由や異見の尊重といった実質的多様性とは無関係です。

第二に、「設計の民主性」の幻想。多様なステークホルダーが参加するという理想は美しいですが、現実には企業の利益とスピードが優先され、倫理委員会は形式的な承認機関に堕してしまうことが多い。

第三に、最も重要なこと――AIの“不条理”を正すのは常に人間だということ。
ならば、なぜ評価の主導権をAIに渡すのか?
人間が最終判断者なら、最初からAIにスクリーニングを任せる必要はない。

技術は便利な道具です。
しかし、“公正”という重い価値を、コードとデータに委ねること――それこそが、私たちが警戒すべき最大の落とし穴です。

自由討論

肯定側第一発言者
皆さん、ここで根本的な問いを投げかけたい。否定側は「AIは過去の偏見を再生産する」と言いますが、人間の評価者こそが「現在進行形で偏見を再生産している」のではないでしょうか?

私たちが直面しているのは、「完璧なAI」と「不完全な人間」の選択ではなく、「改善可能なAI」と「改善困難な人間の偏見」の選択です。AIの問題は「修正可能なバグ」ですが、人間の偏見は「修正困難な特性」です。

否定側第一発言者
面白いですね。肯定側は「修正可能」と言いますが、現実はどうでしょうか?AIが「学習」するのは企業が提供するデータです。その企業自体に多様性の問題があるなら、AIはその問題を「効率的に拡大再生産」するだけ。

それはまるで、汚染された川の水を浄水器に通しても、結局は汚れた水が出てくるようなもの。源が汚れている限り、どんなに高性能なフィルターも無意味です。

肯定側第二発言者
否定側の比喩は美しいですが、現実を歪めています。実際には、AI導入後に多様性が向上した企業の事例は数多くあります。

重要なのは、AIを「ブラックボックス」のまま使うのではなく、透明性を確保した上で使用することです。私たちはAIを「神」としてではなく、「道具」として捉えています。

否定側第二発言者
道具ですか?では質問します。その「道具」が誰を傷つけているか、被害者はどうやって知ることができるのでしょうか?

肯定側第三発言者
まさにそこがポイントです!人間の評価では「なぜ落ちたか」すらわからないことが多い。しかしAIなら、少なくとも「どの指標が足りなかったか」を具体的に示せます。

Unileverの例では、AIが特定のスキルセットを持つ候補者を発掘し、従来の面接では見逃されていた人材を採用できました。これは「偏見の再生産」ではなく、「偏見の打破」です。

否定側第三発言者
一つの成功例を持ち出す前に、もっと根本的な問題があります。AIが「公平」だと判断する基準自体が、誰によって設定されているのでしょうか?

肯定側第四発言者
良い指摘ですね。だからこそ、AIの設計プロセスに多様なステークホルダーを参加させる必要があります。労働組合、多様性専門家、倫理委員会――これらが共同でAIを監査する体制が必要です。

これは技術の問題ではなく、ガバナンスの問題です。

否定側第四発言者
理想論は美しい。しかし現実を見てください。ほとんどの企業では、AIのアルゴリズムは「企業秘密」として隠されています。透明性どころか、より深い闇を作り出しているではありませんか。

肯定側第一発言者
では逆に質問します。否定側は「人間の評価に戻れ」と言いますが、それで本当に公平になるのでしょうか?

否定側第一発言者
「完全な公平」は存在しないかもしれません。しかし、少なくとも人間には「共感」と「反省」の能力があります。

AIに「反省」はありますか?ありません。ただ「学習」するだけ。そしてその学習が、より洗練された差別になる危険性があります。

肯定側第二発言者
共感が時に偏見の源になることもあります。「この人は私に似ているから良い」「この人は私の友達に似ているから採用しよう」――これこそが問題ではないですか?

否定側第二発言者
私たちは「人間は完璧だ」と言っているのではありません。「不完全な人間による、不完全だが救済可能な評価」と「完璧に見えるが救済不可能なAI評価」――どちらを選ぶべきか問いているのです。

肯定側第三発言者
ここで現実的な提案をしたい。AIを「単独の判断者」としてではなく、「人間の判断を支援するツール」として位置づけるのはどうでしょうか?

否定側第三発言者
それなら同意できます。しかし肯定側の初期主張は「AIによる人事評価は公平」という強い主張でした。そこには危険な楽観主義があります。

肯定側第四発言者
私たちの主張の本質は「AIは公平になり得る」ということです。そしてその可能性を追求することこそ、現代の責任ではないでしょうか?

否定側第四発言者
可能性を追求することと、現実に導入することは別問題です。医療では「まず害を与えるな」という原則があります。人事評価でも同じ原則を適用すべきです。

肯定側第一発言者
しかし「何もしないこと」もまた害です。現在の不公平な評価システムを放置することこそ、最大の害ではないですか?

否定側第一発言者
だからこそ、私たちは「AIを慎重に、限定的に」使うことを主張しているのです。

肯定側第二発言者
では合意点が見えてきましたね。AIを「万能の判断者」ではなく、「人間の判断を補完するツール」として位置づけることには同意いただけますか?

否定側第二発言者
「補完ツール」としてなら、議論の余地があります。しかしそれには、徹底的な透明性と独立した監査が前提です。

肯定側第三発言者
その前提には全面的に同意します。重要なのは「AIを使うか使わないか」ではなく、「どのように使うか」です。

否定側第三発言者
しかし現実には、多くの企業が「コスト削減」を目的にAIを導入しています。そこに「公平性」への真摯な追求があるでしょうか?

肯定側第四発言者
そこがまさに私たちの主張の核心です。AIを「公平性の追求」のためにこそ使うべきだというのが、肯定側の立場です。

最終陳述

肯定側最終陳述

皆さん、こんにちは。
私たち肯定側の最後の発言にあたり、まず一つだけ問いたいと思います――

「あなたは、過去の不正義を守るために、未来の公正を犠牲にしますか?」

これが、今日の議論の本質です。

公平とは、「完璧」ではなく、「改善可能であること」

否定側は繰り返し、「AIは偏見を再生産する」と言いました。
確かに、初期のAIはそうでした。Amazonの事例も、その通りです。

でも、ここで忘れてはいけないのは――
その問題を発見したのは、人間ではなく、AIシステムの検証プロセスそのものだったということです。

AIは「偏見を隠す」のではなく、「偏見を可視化する」のです。
人間の面接官が無意識に差別しても、誰も気づかない。
でも、AIが差別すれば、ログに残り、分析され、修正される。

これは革命です。

技術の不完全さを理由に進歩を拒むのか?

否定側は、「AIは人間らしさを測れない」と言います。
確かに今のAIは、涙の理由も、失敗からの学びも、すぐには読み取れません。

でも、50年前に「コンピュータが将棋で人間に勝てるわけがない」と言った人々は、今、AlphaZeroの前に黙しています。

技術は進化します。
そして、私たちはそれを「監視しながら進化させる」責任があります。

「民主的な設計体制」――多様なステークホルダーが参加する開発プロセス。
「独立したアルゴリズム監査」――第三者機関による定期的な偏見チェック。
これらは理想ではありません。EUのAI法案ではすでに法制化が始まっています。

最後に――公平とは、誰のための公平か

否定側は「人間の尊厳」と言いますが、
その尊厳が、マイノリティや女性、地方出身者にまで届いていますか?

名前で落とされ、容姿で判断され、コネで選ばれる――
それが「人間らしい評価」ですか?

私たちは完璧を求めているのではありません。
ただ、「明らかに不公平な現状」よりも、少しでもましな未来を選ぶ――
それこそが、公正への第一歩です。

AIは神ではありません。
でも、人間のバイアスより、修正しやすい。
透明性より、ブラックボックスより、希望がある。

だからこそ、私たちは断言します――
AIによる人事評価は、偏見を助長するのではなく、それを乗り越えるための、唯一の現実的な道なのである

ありがとうございます。


否定側最終陳述

皆さん、お疲れ様でした。

肯定側の最後の言葉を聞いて、一つだけ感じました――
彼らは、技術に対する信仰を持ちすぎている

それは美しい理想かもしれません。
でも、現実は、その理想を飲み込んでしまうほど、冷たく、複雑です。

AIは「偏見の可視化装置」ではない――「正当化装置」だ

肯定側は「AIが偏見を可視化する」と言いました。
しかし、現実にはどうでしょうか?

企業はAIのアルゴリズムを「商業秘密」として隠蔽します。
労働者は「スコア不足」という数字だけを突きつけられ、抗弁の余地さえ与えられない。

ドイツの労働組合が叫んだ「説明請求権」――
それは人権の問題です。

AIが偏見を「可視化」するのではなく、
数学的合理性の仮面を被って、差別を「正当化」しているのが現実です。

「改善可能」という幻想の罠

「継続的学習で改善できる」と言うけれど、
誰が、何を、どう「正しい」と定義するのか?

AIは「多数派の成功パターン」を学ぶ。
つまり、既存のエリートのコピーを量産する機械になる。

多様性とは、「似た者同士を集める」ことではありません。
「違う考えを持つ者を受け入れる勇気」 です。

AIは、その「違い」を「異常値」として排除します。
表面的な属性は多様になっても、思考の多様性は失われる――
それは「多様性の亡霊」です。

真の公正とは、「救済の可能性」があること

肯定側は「AIの方が透明性がある」と言いますが、
透明なブラックボックスなど存在しません

人間の上司なら、「なぜ落としたのか」を尋ねれば、
たとえ曖昧でも、感情や文脈を含めて答えてくれる。
時には反省し、謝ることさえあります。

でも、AIは「スコアが低いからです」としか言わない。
そして、そのスコアの背後にある数千の変数は、誰にも分からない。

公正とは、結果の平等ではありません。
「なぜそうなのか」を尋ねることができ、「変えられるかもしれない」と信じられるプロセス――
それが、人間の尊厳です。

最後に――技術は手段、人間は目的

AIを「補助ツール」として使う分には、私たちは反対しません。
履歴書の初回スクリーニングや、データの整理程度――

しかし、「誰が価値ある人間か」を決める重い判断を、コードに委ねていいのか?

人間には、共感がある。
人間には、想像力がある。
人間には、過ちを認め、変わろうとする力がある。

AIには、それらはありません。

だからこそ、私たちは警告します――
効率の祭壇に、公正の本質を捧げるな

AIによる人事評価は、
表面的な公平を装いながら、
構造的偏見をデジタル化し、
人間の声を奪う、
新たな差別の始まりなのです。

私たちは技術を否定しません。
でも、人間の価値を、アルゴリズムに渡してはなりません。

以上で、私たち否定側の最終陳述を終わります。
ありがとうございました。