近年、採用プロセスの裏でAIが活躍していることはご存じでしょうか。
履歴書を精査したり面接動画を解析したりと、AIは採用プロセスの一端を担っていますが、もし仮にそのAIが人種や性別に基づいて差別を行っていたとしたらどうでしょうか。
今回は、そのような事態に備えるために導入が進められている規制についてご紹介します。
*AIについて詳しく知りたい方は、↓の参考記事をご参照ください。
AI採用ツールに対する規制
2021年11月10日、アメリカのニューヨーク市議会にて、一部のAIを規制する法案が可決されました。
その法案とは、年に1度のバイアス監査で応募者の人種や性別に基づく差別をしないと証明できない限り、雇用主がAIを搭載した採用ツールを使用することを禁止するものです。
また、AI採用ツールを開発・販売するメーカーには、その不透明な仕組みをより詳しく開示し、候補者には人間による審査など、別のプロセスを選択できるようにすることが求められます。
確かに、採用プロセスに関わるAIが人種や性別に基づく差別を潜在的に行っていたとすればそれは不公平・不当な採用となります。
今回の法案が可決されたことは、従来AIによって潜在的な人種や性別の差別を受けてきた可能性のあるニューヨーク市民が今後は安心して採用に臨むことができることを意味します。
一方、AI採用ツールを開発するメーカーにとっては一定の負担となることは間違いありません。人種や性別による差別は決して認められないものの、そもそもブラックボックス的要素の多いAIを説明可能なものにするのは至難の業と言えるからです。
求められるAIの透明性と課題
上記のように求められる水準が上がり苦戦を強いられるメーカーが多い中で、この法案が追い風になる企業も存在します。それは、既に公正さの監査結果を公開している企業です。
代表例としてはニューヨークのスタートアップ企業であるPymetrics社が挙げられます。同社の共同設立者兼CEOであるフリーダ・ポッリ氏は、採用に関わるAIの説明責任の透明性を重視しています。
今回ニューヨーク市議会で可決されたこの法案は採用に関わるAIの透明性を要求するものであり、長期的にはユーザー・メーカー双方にメリットがあると考えられます。
ただ、連邦規制当局や議員が弱い基準を設定してしまう可能性があるという課題は依然として残っています。
また、人種や性別による偏見を防ぐことだけを目的としており、検出が難しい障害や年齢による偏見がその対象に含まれていないことも課題として指摘されています。