説明可能なAIとは何か?
説明可能なAIとは何か?
人工知能(AI)や機械学習(ML)のような深層学習技術が進歩するにつれて、我々はコンピューターアルゴリズムが生み出すアウトプットを理解することに挑戦している。例えば、MLアルゴリズムはどのようにして特定の結果を生み出したのか?
説明可能なAI(またはXAI)は、人間のユーザーがMLアルゴリズムによって生成された出力を理解できるようにするプロセスとツールをカバーする。組織は、AIモデルを本番稼動させる際に、AIモデルに対する信頼を築かなければならない。
XAIプロセス全体は、生成されたデータから直接作成される「ブラックボックス」モデルとも呼ばれる。次に、説明可能なAIの使用例を見てみよう。
説明可能なAIの使用例
説明可能なAIの実際の使用例をいくつか紹介しよう:
自然言語テキストの場合:
XAI for Textは、テキスト関連タスクのためのブラックボックスモデルの開発に焦点を当てている。例えば、法律文書の要約などである。このユースケースにおいて、ユーザーは以下の考察に基づいてXAI for Textを探索し、理解することができます:
テキストに焦点を当てたタスクの種類
タスクに使用されている説明テクニック
特定のXAI技術のターゲットユーザー
同様に、XAIベースのディープラーニングモデルは、レビューやトランスクリプトの形でテキストデータを分類することができます。説明可能なAIを使用すると、テキストに含まれる特定のキーワードやフレーズに基づいて、モデルが予測する理由を判断することができます。
また、XAI for Textを使用してディープラーニングモデルを学習させ、ソーステキストに基づいて記事の要約を生成することもできます。例えば、ソーステキスト内の選択したトークンに対する注目スコアの分布を得ることができます。注目スコアが 0 ~ 1 の単語)は、ソース・テキスト内で強調表示され、エンド・ユーザーに表示されます。アテンション・スコアが高いほど、テキストのハイライトは濃くなり、記事要約における単語の重要度が高くなります。
視覚的なイメージのために:
説明可能なAIは、高解像度の視覚画像に基づく意思決定の自動化にも使われている。高解像度画像の例としては、衛星画像や医療データなどがある。衛星データは大容量であることに加え、撮影されたデータは高解像度であり、複数のスペクトルバンドを含んでいる。例えば、可視光や赤外線などです。XAIで学習したモデルを導入することで、高解像度画像をより小さなパッチに「分割」することができます。
医療画像の領域では、XAIモデルがX線写真から胸部肺炎を検出するために使用されている。同様に、画像認識も視覚画像の領域における説明可能なAIの使用例である。視覚AIを使用すると、(キャプチャした画像に含まれる)画像やオブジェクトを認識するためのカスタムAIモデルを訓練することができます。
統計のため:
XAIのモデルやアルゴリズムは、その精度や解釈の度合いに基づいて効果的である。線形回帰、決定木、K-nearest neighborhoodsのような統計的関係モデルは解釈しやすいが、精度は低い。ニューラルネットワークモデルが解釈可能で正確であるためには、高品質のデータがAIモデルに供給されなければならない。
XAIはデータサイエンスの領域で大きな可能性を秘めている。例えば、Explainable AIは、統計生産システムで使用されている。 欧州中央銀行 (ECB)。ユーザー中心の要望を "典型的な "ユーザーの役割にリンクさせることで、XAIは各ユーザーのニーズに対応するための手法やテクニックを概説することができる。
次に、説明可能なAIで使われる一般的なツールやフレームワークについて説明しよう。
説明可能なAI - ツールとフレームワーク
近年、AI研究者たちは、説明可能なAIを推進するための複数のツールやフレームワークに取り組んできた。ここでは、人気のあるものをいくつか紹介しよう:
もしそうなら TensorFlowチームによって開発されたWhat-Ifは、TensorFlow AIモデルの出力を理解するために使用される視覚的にインタラクティブなツールです。このツールを使用すると、デプロイされたAIモデルのパフォーマンスとともにデータセットを簡単に視覚化できます。
ライム Local Interpretable Model-agnostic Explanationの略で、LIMEツールはワシントン大学の研究チームによって開発された。LIMEは、アルゴリズム内で "何が起きているのか "をより良く可視化する。さらにLIMEは、あらゆるモデルの予測を説明するためのモジュラーで拡張可能な方法を提供する。
AIX360: IBMによって開発されたAI Explainability 360(AIX 360)は、データセットや機械学習モデルの説明と解釈に使用されるオープンソースのライブラリである。PythonパッケージとしてリリースされたAIX360には、メトリクスとともに様々な説明をカバーするアルゴリズム一式が含まれている。
SHAP: Shapley Additive Explanationsの略で、SHAPはあらゆる機械学習モデルの出力を説明するためのゲームベースの理論的アプローチである。ゲーム理論のシャプレー値を使うことで、SHAPは最適なクレジット割り当てと局所的な説明を結びつけることができる。SHAPはPyPIやConda Forgeを使って簡単にインストールできる。
結論
組織はAIモニタリングを通じて、AIを活用した意思決定プロセスを完全に理解する必要がある。説明可能なAIは、企業が導入したMLアルゴリズムやディープ・ニューラル・ネットワークを簡単に説明することを可能にする。効果的に、AIとML技術の生産的な利用とともに、ビジネス上の信頼を構築するのに役立つ。