採用プロセス等でのAI活用を規制
 ―ニューヨーク市、「事前監査」を義務化

ニューヨーク市は7月5日、企業の採用活動等におけるAI(人工知能)の活用を規制する条例を施行した。人材の採用プロセスや昇進者の選考等に「自動雇用決定ツール(Automatic Employment Decision Tool, AEDT)」といわれるソフトウェアを使用する場合、性別や人種等で偏りが生じないか、第三者による監査を事前に受けるよう義務付けた。求職者や労働者に、こうしたツールの使用を通知することも定めた。違反企業には罰金を科す。

採用活動におけるAI利用の増加

採用プロセスでの候補者の絞り込みや、査定等の人事労務管理の場面で、AIの機能を備えた自動化ツールを利用する企業が増えてきた。米国人材マネジメント協会(SHRM)が2022年2月に実施した調査の結果によると、米国における5,000人以上規模企業の42%が採用活動等にAIや自動化ツールを使用している(注1)

だが、こうしたツールには性別や人種等に基づく偏見を伴う過去の情報が蓄積され、その活用によって雇用差別が生じないか懸念されている。例えば、調査会社ピュー・リサーチセンターが2022年12月に実施した世論調査の結果によると、「AIが採用決定を支援する雇用主の仕事に応募しますか?」との問いに「応募しないだろう」が66%と三分の二を占めた。その理由として、「AIが採用プロセスに何らかのバイアスをかけているのではないか」と心配する声があがっている(注2)

条例の内容

ニューヨーク市で今回施行されたAI規制の条例(Local Law144、地方法)は、2021年12月11日に成立していた。市消費者・労働者保護局(DCWP)はパブリックコメントを募り、具体的な内容を検討のうえ、2023年4月6日に「最終規則(Final Rule)」を発表。7月5日に施行した(注3)

条例はAEDTを使用する企業や、職業紹介などを行う人材紹介事業者(Employment agencies)に対して、(1)使用前に「バイアス監査」が行なわれたことを確認する、(2)監査結果をウェブサイトに掲載する、(3)従業員や求職者に、評価や査定におけるツールの使用を通知する。評価にあたって考慮される職務上の資格や特性も伝える、(4)ツールに使用されるデータの種類とソース、データ保持ポリシーをウェブサイトに掲載する、ことを義務付けた。

なお、条例はAEDTを「機械学習、統計モデリング、データ分析、または人工知能に由来し、スコア、分類、推薦を含む簡略化されたアウトプットを提供する計算プロセスで、雇用上の裁量的な意思決定を実質的に支援、または代替するために用いるもの」と定義している。

さらに、「最終規則」は「裁量的な意思決定を実質的に支援、または代替する」ことについて、企業等が(1)簡略化されたアウトプット(スコア、タグ、分類、ランキングなど)だけに依存し、他の要素を考慮しない、(2)簡略化されたアウトプットを、一連の基準の中で、より重視した基準として用いる、(3)簡略化されたアウトプットを使用して、人間の意思決定を含む他の要因から導かれた結論を覆す、のいずれかに該当するものと規定している。

第三者による「バイアス監査」を実施

「バイアス監査」は、独立した第三者である監査人が行う。当該ツールの使用でカテゴリーごとの選考にどの程度の違いが生じるかを明らかにする。少なくとも性別、人種/民族別、これらを組み合わせたカテゴリーにおける選択率、得点率、影響率を計算する。

企業や人材紹介事業者は、差別を禁じた連邦法、州法、市条例等を遵守する観点から、「バイアス監査」の結果に基づき必要な措置を講じなければならない。監査結果の有効期限は1年間とし、経過後はあらためて監査を受ける必要がある。

求職者、労働者らは上記の義務を怠った企業や人材紹介事業者への苦情を市当局に申立てることができる。違反企業には初回最大500ドル、その後は違反ごとに500~1,500ドルの罰金を科す。

他州を見ると、ニューヨーク・タイムズ紙によれば、少なくともカリフォルニア、ニュージャージー、ニューヨーク、バーモントの各州とコロンビア特別区(ワシントンD.C.)が、企業の採用活動におけるAI規制の法制化を進めようとしている。イリノイ州とメリーランド州では、求職者との面接時におけるAI技術の活用を州法で規制している(注4)

EEOCのガイダンス

ニューヨーク市での条例施行に先立ち、連邦政府機関の雇用機会均等委員会(EEOC)は2023年5月18日、企業の採用や昇進等におけるAIの活用についてガイダンスを発表した(注5)

1964年公民権法第7編は、人種、肌の色、宗教、性別、国籍に基づく、雇用における差別を禁止している。雇用機会を奪ったり、被用者としての地位に不利な影響(adversely affect)を与えるような方法で、被用者または求職者を制限、隔離、分類することも禁じる。また、人種、肌の色、宗教、性別、国籍に基づき不当に排除する効果のある「中立的な試験(neutral tests)」や「選考手順(selection procedures)」について、該当する職務のビジネス上の必要性に合致しない限り、一般的に禁じている。こうした、結果として差別を生じさせる効果を「差別的効果(disparate impact)」または「不利な効果(adverse impact)」という。

ガイダンスは、雇用、昇進、解雇等における「アルゴリズムによる意思決定ツール」の使用についても、上記の「選考手順」に該当すると指摘。これらのツールの使用が「不利な効果」を生じさせる場合、該当する職務のビジネス上の必要性に合致しない限り、違法となるとした。

企業はツールの使用後も継続的に、その影響を分析する義務を負う。プログラムが特定の性別や人種などの保護対象グループに不均衡な影響を与えていると気付いた場合、その影響を軽減するか、代替措置を講じなければならないとしている。

なお、EEOCは2022年5月12日に、企業によるAIなどの自動化システムの使用が、障害者への差別につながる危険性を指摘する文書も公表している(注6)。それによると、企業が採用や評価等の意思決定をAIのアルゴリズムに委ね、障害のある求職者や従業員に「合理的配慮(Reasonable Accommodation、障害のある求職者や従業員に対して、試験方法の見直しや設備の改善、職場ポリシーの例外の設定といった配慮(便宜)を与えることで、雇用上の平等な利益や権利を享受できるようにすること)」を提供しない場合、公正で正確な評価が行われず、障害を持つアメリカ人法(Americans with Disability Act, ADA)に違反する可能性があるとの見解を示している。

参考資料

参考レート

2023年7月 アメリカの記事一覧

関連情報