AI採用の失敗と成功。明暗を分けたのは“使いどころ”
最近はAI(人工知能)を用いた人事サービスが増えてきています。私は、これには大きな可能性と危険性が同時に潜んでいると思っています。このようなサービスプロバイダーも、またその導入を検討する人事も、是と非を十分に理解した上で開発・導入をしていかないといけないと考えます。このポイントをとても明確に示している実例があります。私の知る海外の大企業2社が、AIを用いた履歴書スクリーニングの開発・実用化にとりかかっていました。2社はどちらも共に成長盛りのテック企業で、年間数百万件の応募があるほど人気です。人事担当はこれだけの量の履歴書を目視でスクリーニングし、その中から各職種に適正のある候補者を選抜する……1人で何千枚もの履歴書を次から次へと見比べることが、何週間と続くこともあるでしょう。取りこぼし防止のために、履歴書の再確認を何名かで行うことはリソース的に困難です。こういった状況を想像してもらうと、如何に初期スクリーニングの人的ミスが起きやすい状態かイメージできるかと思います。
そこで注目されたのが、「AIによって機械的に履歴書をふるいにかける」という取り組みです。幸いにしてどちらの企業も年間数百万件の応募データが複数年分あり、1社単体でも十分な教師データが揃っている状態でした。これを取り込み、人間の採用担当と同じように履歴書のスクリーニングをさせることができたら、どんなに採用プロセスが効率化されることか。AIによる採用プロセスの効率化は多くの企業の夢となりました。
さて、ほぼ同時にAIスクリーニングに取り組み始めた2社ですが、その後の経路は大きく異なります。
1社目はAI履歴書スクリーニングをリリースし、同社の候補者を、その後の面接に呼ぶべきかどうか5点満点の軸で機械的に評価し、選別しました。ところが約2年後、突如このプロセスを廃止します。それは、特定の技術職種で女性候補者に不利な判断がされているとの懸念が持たれたためと言われます。なぜなら、過去の応募者のほとんどが男性だったため、コンピューターモデルに過去10年間分の履歴書のパターンを学習させた際、システムが男性を示す名前や表現を候補者として好ましいと認識してしまったのです。
これは珍しいことではなく、別の企業ではAIスクリーニングが黒人やヒスパニック系候補者よりも明らかに白人候補者を選んでいたという結果もあります。これらの特定な項目で差別がなくなるようプログラムを修正することはできても、別のところで不公平な判断がされていない保証はありません。それにより、同社はAIスクリーニングを撤廃したということです。
対して2社目は、同様のシステムを開発したものの、当初からAIが人間のバイアスをそのまま取り込んでしまう可能性を懸念し、初期スクリーニングではないところにシステムを応用しました。それは、一度人間の採用担当がNGの判断を下した候補者プールにAIスクリーニングをかけ、過去のデータから適性が高いと思える候補者を蘇らせる“取りこぼし防止策”でした。
先にも書きましたが、これらの人気企業では人間が目視で確認するにはあまりに酷な量の履歴書が集まり、人的ミスが非常に発生しやすいオペレーションとなってしまっています。このAIを使った取りこぼし防止策によって、同社は年間100人にもおよぶ追加の内定者を出していると聞きます。人間の判断だけでは如何にミスが多く発生しているかが伺えますが、同時に、機械とうまく連携すればどれだけ多くの効果が生み出せるかもわかります。
人間のバイアスがかかった判断を教師データとしている以上、AIから完全にバイアスをなくすことはまだ当面難しいかもしれません。しかし、AIの欠陥を理解した上で、人間の力が及ばない部分を補うような有効活用が進めば、人事部の非効率は格段に改善するのではないでしょうか。