「AI面接のバイアス問題」は企業にとって問題ではない

人事分野でもAI(人工知能)を用いたシステムの利用が進みつつある。例えば以前も紹介したHireVueのAI面接(デジタル面接)システムなど、顔や声を分析して得点化することで採用プロセスを高速化するといったサービスが実用化されている。

関連記事:顔と声を分析するAI面接のメリット・デメリット

上記記事でも指摘したが、現状ではAI面接には性別などに対するバイアスが問題となっており、バイアスが固定化されるリスクなどがある。

しかし、現時点においてはAI面接にバイアスがあったところで、それを認識して使うのであれば何も問題は無いと考えている。これは人種や性別などの偏見を正当化しているのではなく、人間が採用に介在する限りにおいては偏見がつきまとうのであり、バイアスがあるからと言ってAI面接を放棄する理由にはならないということである。なお、本稿では性別によるバイアスを論点とし、男女には能力的な差が無いことを仮定する。

同じ能力なら女性の方が面接で高評価を得られやすい

例えば、筆者が知る某企業においては「単純に面接を行うと女性の評価が高くなりやすい」という問題がある。背景を聞いていると人事部には男性が多く、女性の方が採点が甘くなるというバイアスがあるようだ。

似たようなものとしてオンラインで音声により採用面接を行えるオンラインサービスinterviewing.ioが行った実験がある。数千もの面接データのスコアを見ると、こちらの方は女性より男性の方が得点が高い。そこで実験者は性別によるバイアスがあると想定し、データに音声変換を施して、実際の企業に評価をしてもらうという実験を行った。

参考:interviewing.io blog, “We built voice modulation to mask gender in technical interviews. Here’s what happened.”, 29 Jun 2016

すると、男性の場合は女性のような声に変換すると得点が少し高くなり、女性の場合は男性のような声に変換すると得点が少し低くなるという結果が得られた。この実験においては有意差が出なかったが、重要な事実として公表された。同じ事を言っているのであれば男性よりも女性の方が高く評価されやすいという可能性があるということである。

これらの例に限らず、同じ事を言っても男性よりも女性の方が甘く見られるというのは経験的に妥当と考える人は多いだろう。当然これも差別の一つであり解消すべき問題である。(というのが正しいフェミニズムの在り方だろう。)

これは明らかに生物学的な特徴であり、本質的には容姿の問題である。同じ性別の人の発言であっても同様だ。性的な発言をしてもイケメンならセクハラにならなかったり、いかにも性格が悪い発言をしても美人なら小悪魔キャラで済んだりする。

筆者が知る企業の人事部は男性に偏重しており、企業のランクに合った同程度の人材が多く候補として現れ、その中で面接を行うと、男性人事にとって相対的に容姿が良い女性(対男性)の方が得点が高くなるということである。

最終的に判断を下すのは人間

さて、この企業が最終的にどうするかと言えば、男性の評価に下駄を履かせることで、より多くの男性が次の面接に進むように補正している。補正する理由としては、

  1. 男性が女性を評価する際のバイアスの補正
  2. 女性の方が統計的に離職率が高いというリスクを想定した補正

である。1はポリティカル・コレクトネスの観点で正しいが、2は逆に問題になるかもしれない。その辺の難しい問題はさておき、ここで重要なのは、何らかの得点が出されたところで最終的に判断する人間が得点を修正してしまうということである。

この企業は面接官(人間)が出した得点を人間が補正するという形であるが、これが別にAIが出した得点を人間が補正するということが行われても何ら不思議ではない。

何を持って男女平等かはさておき、何らかの平等の基準ができ、それがAIのアルゴリズムが適切に持つようになったとしても、それを使う側が気にくわなければ補正できるのである。

どこまでも人間の問題

  • 人間がほぼ介在しない形での採用
  • ポリティカル・コレクトネスに配慮した採用

を両立するのが目標であるならば、バイアスのあるAIは問題であり、いかにして解決するかという問題に取り組まねばならない。しかし、技術的にも制度的にもここまでの自動化は時期尚早であり、現時点で問題とするのは実務的には気が早い。

現状では人間が面接AIを補助的に使うことが想定される。その場合、採用する人間にバイアスがあり、その人間がAIを利用するだけであるならば、バイアスを除去したところで後で補正されるだけである。人間と同じバイアスを持っているAIであれば、単純に採用プロセスが迅速化すると重宝する企業もあるかもしれない。

もっとも、このように考えている企業があったとしても、先日炎上したAI関連の何とかさんのように、普通は表立っては言わないものである。

バイアスが問題であるならば、それはどこまでも人間の問題であり、AIの倫理などと言って絡めるべきではない。勿論、研究者レベルであれば人間が介在しなくても利用可能な面接AIの開発は進められているし、採用という仕事が人間の手から離れるかもしれない将来についての議論は必要である。しかし、研究者レベルで議論されている「将来のAIが抱える問題」と実務で「今使われているAIの問題」を混在するということは避けねばならない

今の実務上の問題としては、「使いたい面接AIが持つバイアス」と「人間が持つバイアス」を認識し、それをどのように解決するか(あるいは解決しないか)が論点であり、「面接AIにバイアスがあるのが問題」という批判は実務者にとっては的外れなのである。

       

この記事の著者 HAL について

金融・マーケティング分野の機械学習システム開発や導入支援が専門。SlofiAでは主に海外情勢に関する記事、金融工学や機械学習に関する記事を担当。

HAL の記事一覧 SlofiAのtwitterアカウント@slofia_finance