米議会「アルゴリズム責任法案」提出ー説明可能なAIが必要に

民主党は、アルゴリズムに偏りがある場合に開発企業の責任を追及する「アルゴリズム説明責任法」を再提出しました。

この法案は、2019年にロン・ワイデン上院議員(民主党)が初めて提出したものの、上下両院を通過しなかったものの修正版です。更新された法案は、ワイデン氏が今週、コーリー・ブッカー上院議員(民主党)、イヴェット・クラーク下院議員(民主党)と共に提出したものであるアルゴリズムがこれまで以上に重要な判断に使われるようになり、アルゴリズムの偏りに対する懸念が高まっています。

アルゴリズムに偏りがあると、少数民族や社会から疎外されたコミュニティに不利益をもたらす可能性があります。この法案では、AIシステムの監査を強制的に行い、その結果を連邦取引委員会に報告することになっています。

このように説明可能なAI(Explainable AI、XAI)への注目が高まっています。XAIは、解答の結果が人間に理解できる人工知能であり、アルゴリズムによる偏りを会解決する手段として注目されています。