2023
,
03
,
16
-
5
minute read

Workday訴訟をきっかけに考える、人事・雇用領域のAIリスク

大手HRテック企業のAIシステムが、黒人や障がい者、高齢者を差別しているのではないか−−そのような疑問が、カリフォルニアの法廷で提起されています。

Bloomberg Law Feb. 23, 2023: Workday AI Biased Against Black, Older Applicants, Suit Says (1)

本記事ではこうした最新動向も踏まえ、人事・雇用領域のAIリスクと求められる対応の方向性について考えてみたいと思います。

何が問題になっているのか

冒頭で述べた訴訟は、2005年に創業され、HRテック業界を代表する企業であるWorkdayに対して提起されました。

HRテックは、AI活用が進みつつあり今後も進むであろう業界の典型例です。活用事例は幅広く、採用面接の初期スクリーニング(例: ソフトバンクのAI動画面接)、人事評価・異動の判断(例: 防衛省の人事システム)、社員からの問い合わせ窓口のチャットボット化などさまざまです。

特に採用や人事評価において、AIの意思決定は効率化に加え、人間による「無意識のバイアス Unconscious Bias」を防ぐために導入されることも多いです。たとえば、コロンビア大Cowgill准教授の研究によれば、ソフトウェアエンジニアの採用において、AIによりスクリーニングした候補は人間のスクリーニングよりも14%内定獲得率が高く、18%オファー受諾率が高いとのこと(Fortune 2023)。AIの方が、ジェンダーなどのバイアスよりも職務適正を正しく反映した予測結果を出せる場合も多く、DEI(Diversity, Equity and Inclusion)の観点でもAIの役割は大きくなりつつあります。

しかしながら、AIの意思決定にもリスクがつきまといます。Robust IntelligenceはAIリスクを下記の通り「機能・品質面のリスク」「倫理的なリスク」「セキュリティ面のリスク」と分類していますが、特に今回フォーカスするのは「倫理的なリスク」です

訴状では、Workdayの提供する採用向けのAIシステムが黒人、障がい者、40歳以上の人を不当に高い割合で不採用にしていると主張されています。訴訟を起こしたMobley氏自身も、自身がこうした属性を持つが故に、100近くのWorkdayを使う企業の選考に落ちたとしています。

ここで問題にされている公平性をめぐる疑義は、「倫理的なリスク」に分類される典型的な問題です。機械学習モデルは学習データや実データの偏りを反映して学習するので、現実社会において人が行なっている営みに内包される差別などを、そのまま自社のポリシー上の「正解」として読みとってしまうおそれがあります。

先ほど述べたような「無意識のバイアスを減らす」という目的がこうしたリスクにより果たせなくなるのであれば本末転倒です。実際、そうした事案は珍しいものではありません。大手企業では、エンジニア採用における男女格差がそのままAIモデルの推論に反映されてしまい、実装を見送ったAmazon採用AIの事例や、面接の顔認識を取りやめたHirevueの事例などが有名です。

以下ではこのリスクについて、①誰がリスク管理を検討すべきなのか、②人事・雇用領域でなぜリスク管理が急務なのか、について考えます。

このリスクは誰が気にすべき問題か

こうしたAIリスクは、HRテックのベンダーだけではなく、システムを利用するユーザ企業(人事部など)も意識しなければならないテーマです。

今回の訴訟では、数百の企業に採用のAIシステムを提供しているとされるHRテック企業のWorkdayが矢面に立っていますが、スクを負担することになるのはベンダーだけではありません。当然、そうしたAIを活用したサービスを利用する個々の企業(人事部)も、採用・人事における倫理的な問題を指摘されれば法的なリスクを背負ったり、社会的なバッシングを受けることになります

こうしたリスクに関わる整理の一例として総務省の「AI利活用ガイドライン」をみましょう。ステイクホルダーを「開発者」「AIサービスプロバイダ」「ビジネス利用者」に分けた上で、各プレイヤーに求められる対応をまとめています。

たとえば今回主眼になる「公平性の原則」では、AIサービスプロバイダ(HRテック企業など)、ビジネス利用者(HRテックを活用する企業の人事部など)の双方が公平性に配慮すべき、とされています。

製造業におけるサプライチェーンリスクなどとも同型の問題ですが、ユーザ企業も実際に応募者や被雇用者と接する以上、公平性をめぐる問題に無関心ではいられません

なぜリスク対応がカギなのか

それでは、なぜこの人事・雇用の領域において、こうした課題が顕在化しやすいのでしょうか。特に大きいのは、多くが個人のデータに関する推論を伴い、かつその結果がキャリアパスや人事評価という人生にとってクリティカルな判断に用いられるからだと考えられます。

この点については、法的リスクの観点でも社会的受容性の観点でも、法学などの議論を参照して整理することが有効です。

たとえば憲法学者の山本龍彦は、憲法13条の「個人の尊重原理」を階層化して捉えることから出発し、AI(機械学習)のもちうる影響を整理しています(山本 2018)。ここでは詳述は避けますが、HR領域においては特に下記ハイライトの通り、①アルゴリズム上のバイアス、②セグメントに基づく確率的な判断、③「過去」の拘束、④個人の評価軸の複雑化・ブラックボックス化、といった点が問題になりやすいと想定されます。これらは抽象的なリスクの議論ですが、実際にそれぞれの事例を想像することは容易いでしょう。

これは憲法学の観点からの議論ですが、実際に人事・雇用分野では個別法・政策のレベルでも、AIの出すアウトプットと矛盾しうる価値・目標は多数存在します

たとえば「人事・雇用のジェンダー格差」の観点を取り上げると、まず男女雇用機会均等法の第五条や第六条などにおいて、募集・採用や労働者の配置、昇進などを決定する際の性別を理由とする差別が禁止されています。また、法的拘束力はありませんが、国の男女共同参画基本計画においては女性の管理職比率などの政策目標が示されており、ひとつのベンチマークとして有用です。

EU AI ACTのように「AI」を個別に対象としていなくても、社会から要請される特定の価値やそれを実現する法令が、AIのアウトプットと矛盾しないかを常にチェックしておく必要があるでしょう

どのようにリスクと向き合うべきか

ここまで述べてきたように、人事・雇用領域のAIリスク対策は急務であり、ベンダーだけでなくHRテックなどのツールのユーザ企業も、社会から要請される公平性などの価値とAIのアウトプットの間の乖離をモニタリングしていく必要があります。

ここで重要なのは、AI活用自体を諦めるべきではないと言うことです。冒頭も述べた通り、そもそも人事・雇用領域でのAI活用は、効率性を高め、また人間が採用・評価などを行う際に生じるバイアスを防いで効果的な意思決定を行う助けになります。課題はあくまで「AIのアウトプットのバイアスを防ぐこと」であって、AI自体を手放すことではありません。

そこでRobust Intelligenceでは、「攻めのガバナンス」という考え方を提案しています(詳しくは自民党での講演記録をご覧ください)。

人事・雇用領域のリスクや関連法令を押さえた上で、AI活用と公平性に対する考え方を整理・公表し、実際にAIの挙動をモニタリングしていく。そうした一連のステップを踏むことで初めて、「責任あるAI活用 Responsible AI」を実現していくことが可能になります。そして、競合に先立ってガバナンスを伴ったAI活用を進め、そのことを対外的に発信することは、今後不可避的にAI活用が広がっていくマーケットにおいて競争優位性に繋がっていきます

具体的なポリシー策定・モニタリングの方法や公平性に対する考え方のパターンについても、Robust Intelligenceには豊富な知見があるため、また別の機会に発信していきたいと思います。

アメリカで起きた今回の訴訟ですが、日本マーケットに対しても様々な示唆を与えてくれます。ぜひ今一度、自社の人事・雇用に関わるAI活用の状況を見直してみてはいかがでしょうか。

参考文献

Gary D. Friedman, 2023, “Artificial intelligence is increasingly being used to make workplace decisions–but human intelligence remains vital,” FORTUNE (Retrieved March 16, 2023,  https://fortune.com/2023/03/13/artificial-intelligence-make-workplace-decisions-human-intelligence-remains-vital-careers-tech-gary-friedman/).

Annelise Gilbert, 2023, “Workday AI Biased Against Black, Older Applicants, Suit Says (1),” Bloomberg Law (Retrieved March 16, 2023, https://news.bloomberglaw.com/daily-labor-report/workday-ai-biased-against-black-disabled-applicants-suit-says)

山本龍彦,2018,「ロボット・AIは人間の尊厳を奪うか?」弥永真生・宍戸常寿編『ロボット・AIと法』有斐閣,79-101.

Blog

関連記事

2023
,
12
,
26
-
10
minute read

AIガバナンスをめぐる議論の現在地点 〜「AI事業者ガイドライン案」を踏まえて

Heading
For:
2023
,
10
,
25
-
5
minute read

より良いAIガバナンス実装に向けて〜「AIガバナンスホワイトペーパー ver. 1.0」の概要〜

Heading
For:
2023
,
11
,
30
-
3
minute read

政策企画責任者の佐久間がMHMセミナー2023のパネルディスカッションに登壇しました

Heading
For:
2024
,
03
,
13
-
3
minute read

Robust Intelligence、日立ソリューションズと協業しAIガバナンスを支援

Heading
For:
2023
,
04
,
03
-
7
minute read

Robust Intelligenceのビジョンと日本市場の新体制

Heading
For:
2023
,
12
,
08
-
5
minute read

AIを用いたGPT-4やその他のLLMの脱獄の自動化の研究結果を発表

Heading
For:
2024
,
01
,
10
-
2
minute read

Robust Intelligence、日本ディープラーニング協会(JDLA)に正会員企業として入会

Heading
For:
2023
,
11
,
18
-
3
minute read

共同創業者の大柴が日韓首脳とのスタートアップ車座対話に出席しました

Heading
For:
2024
,
02
,
22
-
3
minute read

Robust Intelligence、米商務省のAI安全性コンソーシアムへの参加が決定

Heading
For:
2023
,
07
,
21
-
5
minute read

トラスト確保のための「第三者検証」

Heading
For:
2023
,
11
,
02
-
10
minute read

エグゼクティブイベント “AI Risk Management Summit 2023” 開催報告

Heading
For:
2023
,
04
,
10
-
6
minute read

AIシステム実用化のためのTest-Drivenアプローチ

Heading
For:
2023
,
10
,
25
-
5
minute read

Robust Intelligenceと損保ジャパンが業務提携 〜AIの信頼性確保に向けた大規模言語モデルのリスク評価と全社的なガバナンス体制の構築〜

Heading
For:
2023
,
03
,
06
-
5
minute read

自民党・AIプロジェクトチームの議論に参加しました

Heading
For:
2024
,
03
,
29
-
6
minute read

Robust Intelligence、東京海上ディーアール社と日本企業のAI活用支援を目指す協業を開始

Heading
For:
2024
,
02
,
28
-
3
minute read

2024年、AI活用本格化の年に取り組むべきAIリスク対策・AIガバナンスの社会実装

Heading
For:
AIリスク管理のソリューションの詳細をご紹介します。
無料デモをリクエスト