説明可能なAI(Explainable AI:XAI)とは

説明可能なAIとは

説明可能なAI(Explainable AI:XAI)とは、AIモデルのアウトプットを人間が理解し、信頼できるようにするための技術です。米国のDARPA(Defense Advanced Research Projects Agency:国防高等研究計画局)が主導する研究プロジェクトが発端だといわれています。

説明可能なAIが注目されるようになった理由は、ディープラーニング(深層学習)が登場したことにあります。ディープラーニングには、これによって生成したAIモデルは中身がブラックボックス(入力から出力までのプロセスがわからないこと)になりやすいという性質があり、そのAIモデルの出力を信頼しづらいという課題がありました。そこで、ブラックボックスの中を人間でもわかりやすくするための手法として、説明可能なAIが注目されるようになったのです。

*ディープラーニングについて詳しく知りたい方は、↓の参考記事をご参照ください。

説明可能なAIの手法

説明可能なAIの手法はいくつか存在します。以下では、その具体例を4つ紹介します。

  1. データのどの特徴が予測・認識に重要だったかを説明として提示する方法です。例えば、年収の多寡を推定するAIがある人物について「年収が高い」と予測した場合、「既婚」かつ「男性」であり、「高学歴」で、「役員である」といったデータの特徴をその予測の根拠として提示します。
  2. どの学習データが予測・認識に重要だったかを説明として提示する方法です。言い換えると、ある学習データが無かったらデータの予測がどの程度変わるかを調べる手法です。
  3. 予測・認識のプロセスを可読な表現で記述することでAIの説明とする方法です。つまり、複雑なAIを人間が読める簡単なモデルへと書き換えるのです。
  4. データのどの特徴が予測・認識に重要だったかを自然言語で説明文として提示する方法です。①の手法との違いは、自然言語の説明文を提示するという点です。

なぜ説明可能なAIが必要なのか

AIのブラックボックスが招く問題の解決のため

AIを人間の意思決定の補助役として活用する場合、AIの判断根拠の説明が必要となります。

例えば、病気の診断のサポートをAIが行う際に、判断根拠がわからなれば、原因を探ることができません。また、AIが間違った判断を下した際に、修正することが困難となります。他にも、貸し付けに伴う信用調査の際に、判断根拠がなければ、利害関係者の納得を得られない可能性があります。

このようにAIを人間の意思決定の補助役として活用するとしても、最終的な判断が人間に委ねられている以上、その責任は人間にあります。AIの判断根拠が示されなければ、AIを信じることは難しいでしょう。また、開発者はシステムが正常に機能しているかを確認することが難しくなります。

上記とは異なり、意思決定の補助役以外の用途でAIを活用する場合でも、AIのブラックボックスによって問題が発生する可能性があります。

例えば、米IBMが、電子健康記録を構文解析してがん患者に最善の治療を勧めるAIを開発していた時のことです。このAIは、実証実験の段階では医師の9割と同じ治療計画を提示するなど高い精度を誇っていましたが、学習データが古くなったために臨床利用の承認を受けられず、6200万ドルもの資金が無駄になりました。また、2018年には米AmazonのAI人事採用ツールのアルゴリズムが男性の採用候補者を優先していたことが判明し、このツールは廃止されました。

社会的要請の高まりのため

各国政府で説明可能なAIの要請が高まっています。

EUは2021年に公表したAI規制案で、特に人事採用や信用評価、法の執行など規制対象外のアルゴリズムによる意思決定が有害な結果をもたらしかねない場合には、AIに対する説明責任を求めています。違反した企業には、売上高の6%か3000万ユーロのいずれか高い方を罰金として科すとしています。

米国では連邦取引委員会(FTC)が2021年、人種や性別の差別につながるブラックボックスなAIを販売したり、使用したりする企業をFTC法違反に当たるとの見解を示し、警告しました。規制に違反していると知りながらAIモデルに判断基準を説明する機能の搭載を怠った企業には、使用差止めを命じ、最大4万3000ドルの罰金を科すといいます。

日本では、2018年に総務省がAI利活用原則案を公表し、AIサービスプロバイダとビジネス利用者に対して、AIの入出力の検証可能性と判断結果の説明可能性に留意するよう求めたり、ステークホルダーに対してアカウンタビリティを果たすように求めました。

説明可能なAIの活用事例

ブロックチェーンとの掛け合わせ

AIをブロックチェーンと掛け合わせることによって、 AIが生成したデータを安全に保存するための分散管理システムを構築できるだけでなく、アカウンタビリティに対する安全性を高めることも可能となります。また、計算アプリケーションのパフォーマンスを高められる可能性もあると指摘されています。

日立製作所の取り組み

日立は2020年から、「AI導入・運用支援サービス」の提供を開始しています。このサービスでは、説明可能なAIの技術を活用して、AIの解釈性を高めています。

Googleの取り組み

Googleは2019年11月21日に、Googleが提供している「AutoML Tables」と「Cloud AI Platform」上の機械学習モデルに対して利用できる「Explainable AI」を発表しました。Explainable AIを用いると、どの特徴がモデルの予測結果にどれだけ貢献しているかを知ることができます。予測結果を評価することで、モデルのデバッグや最適化が容易になります。

NTT東日本

NTT東日本はこれまで蓄積してきた膨大なデータに新たに世の中の動向を示すトレンドデータを組み合わせて説明可能なAIで分析し、予測を提供するサービスを展開しています。