AI(人工知能) 市場は2021年から2026年にかけて年平均39.7% という急速な成長を遂げ、すでにビジネスの中核技術となっています。多くの企業が、明確な目的をもってAIを活用し、ビジネスの成長と変革を推進しています。
現在、AIは「人間の能力を補完するもの」であり、「人間にとって代わる存在ではない」という認識が一般的です。しかし、企業がAIを導入する際には、その成果を明確に測定・追跡できることが不可欠です。そのため、判断プロセスがブラックボックス化したAIソリューションは、ビジネスの現場では受け入れられにくい状況です。
特に規制の厳しい業界では、すべての意思決定について十分な説明が求められます。コンプライアンス違反は深刻な処罰や評判の失墜、ビジネス機会の損失につながるため、企業は説明責任を果たせるAIソリューションを必要としています。
AIの意思決定は大きく二つのアプローチに分類できます:
AIは人間と同じように「学習」を必要としますが、その判断プロセスには大きな違いがあります。決定論的アプローチは客観的で説明が容易である一方、確率的アプローチは主観的要素を含むため説明が難しくなります。特に、深層学習を用いたAIは、その判断過程がブラックボックス化しやすい特徴があります。
企業がAIの説明可能性 を確保するための手段として、以下の3つ があります:
1. 従来型の機械学習手法
最も基本的なアプローチで、深層学習を使用せずに説明可能性を確保します。
特徴としては、シンプルで理解しやすいアルゴリズムを使用し、プロセスの透明性が高く追跡が容易です。具体的にはクラスタリングや次元削減モデルなどの確立された手法を活用します。評価方法としては「適合率と再現率」、「モデルの正確性」、「決定係数による予測精度の評価」などの明確な指標を用います。
2. Ante-hoc(事前説明)手法
AIモデルの設計段階から説明可能性を組み込むアプローチです。
主な技術として、時系列データの分析に特化したRETAIN (逆時間Attention) や 確立的な アプローチで不悪実性 を考慮するBDL (ベイズ深層学習) が挙げられます。RETAINは予測に影響を与えた要因を時間軸で追跡が可能であり、BDLは予測結果に対する信頼度を提供できるなど、説明可能性がAIモデルに組み込まれています。
3. Post-hoc(事後説明)手法
既存のAIモデルに対して、後付けで説明可能性を付加するアプローチです。監査可能なプロキシモデルを構築し、元のAIモデルの動作を解釈可能な形で再現します。プロキシモデルとは元のAIモデルを単純化したモデルです。
主な技術としては、モデルに依存しない局所的な解釈を提供できるLIME やニューラルネットワークの各層での判断過程を追跡するLRP といった手法があります。LIMEは個々の予測結果について説明が可能であり、LRPは最終的な出力に対する各入力の貢献度を可視化することが可能です。
この三つのアプローチは、それぞれに長所と短所があります。企業は自社のビジネス要件、規制環境、既存システムとの整合性などを考慮し、最適なアプローチを選択する必要があります。
AIとデータは密接な関係にあり、互いに補完しあう存在です。AIが企業データから有用な洞察を導き出すためには、適切な学習を可能にする高品質な訓練データが必要です。
企業が価値のあるデータを活用し、説明可能なAIモデルを構築するには、データの信号対雑音比 (SN比)を重要な指標として考慮する必要があります。SN比はデータ内の有意味な 情報(信号)とノイズ(雑音 )の比率を示す指標です。この比率が低い場合は、二つの大きな課題に直面します。一つ目は、信号を適切に検証するためにより多くのデータが必要になることです。二つ目は、データの解釈と検証に人間の深い関与(ヒューマン・イン・ループ)が必要になることです。低いSN比で構築されたAIモデルでは、説明可能性の面で多くの課題が生じます。
人間の関与 は企業で管理できる課題ですが、データセットの制約に関連する課題は更に複雑です。このような状況で企業は通常、自社のビジネスに関連する情報を含む有用な代替データを探し、SN比の改善を図ります。
Post-hoc手法では、AIの説明可能性を外部から構築します。
既存の深層学習ベースのAIソリューションやブラックボックス型AIソリューションに対して(図1)、その出力を説明するため、完全に監査できるプロキシモデルを構築します。このプロキシモデルは、特徴量エンジニアリングに基づいており、各特徴の重要度を分析し、ブラックボックス型ソリューションの判断メカニズムを解明できるものでなければなりません。
実際の適用例として、100件のビジネスケースを処理する例を想定してみましょう。各ケースに対して「はい」または「いいえ」のどちらかで判断をします(図2)。
ブラックボックス型AIソリューションの評価:
まず人間の専門家が100件のケースを評価し以下の判断を下しました。
• 「はい」:80件
• 「いいえ」:20件
次に、深層学習を基盤とするブラックボックス型AIソリューションで同じケースを処理したところ、偶然にも同じ比率の結果が得られました。
• 「はい」:80件
• 「いいえ」:20件
しかし、人間の判断との一致度を詳しく分析すると
• AIが「はい」と判断した80件のうち、人間の判断と一致したのは75件
• AIが「いいえ」と判断した20件のうち、人間の判断と一致したのは15件
つまり人間とAIの判断が一致した数は90件(=75+15)であり、AIソリューションの精度は90%となります。この90%という高い精度にもかかわらず、このAIソリューションは各ユースケースの個々の「はい」と「いいえ」の決定が導かれた経緯が説明されていないため、企業での実用には大きな制約があります。
Post-hoc手法を適用したAIソリューションの評価:
Post-hoc手法を適用した説明可能なAIソリューションでも同様の比率の結果が得られました。
• 「はい」:80件
• 「いいえ」:20件
1. 説明可能なAIの結果をブラックボックス型AIの結果と比較すると
• 説明可能なAIが「はい」と判断した80件のうち、ブラックボックス型AIの結果と一致したのは75件
• 説明可能なAIが「いいえ」と判断した20件のうち、ブラックボックス型AIの結果と一致したのは15件
2. Post-hoc手法を適用した説明可能なAIソリューションの結果と人間の判断と比較すると
• 説明可能なAIが「はい」と判断した80件のうち、人間の判断と[RB1] 一致したのは70件
• 説明可能なAIが「いいえ」と判断した20件のうち、人間の判断と一致したのは10件
つまり人間とAIの判断が一致した数は80件(=70+10)であり、AIソリューションの精度は80%となります。
結果としてPost-hoc手法を適用したAIソリューションは、ブラックボックス型に比べて精度が低くなりましたが(90%→80%)、各判断の根拠を説明できるという大きな利点があります。
このケーススタディは、AIソリューションを評価する際に、単純な精度だけでなく説明可能性も重要な指標となることを示しています。Post-hoc手法による説明可能性の確保は精度との間にトレードオフの関係を持ちますが、判断の根拠を説明できることは、多くのビジネス場面で不可欠な要素となります。
ただし、Post-hoc手法による説明の妥当性を評価し、特定のビジネス要件への適用性を判断するためには、依然として人間の専門家による検証が必要です。
Post-hoc手法は、ブラックボックス型AIモデルの解釈性を高めるためのアプローチです。これのアプローチでは、AIモデルを透過的に機能させることで、特定の決定に至った過程と理由を説明します。
Post-hoc手法による説明は、通常以下の三つのパターンのいずれかに分類されます:
1. 類似条件での同一判断例
同じような入力データに対して同一の決定に至ったケースを示すことで、その決定の妥当性を説明します。類似した関連事例が判断の裏付けとなります。
2. 類似条件での異なる判断例
同じような入力データでありながら、異なる決定に至ったケースを示します。これは似たような状況でも、他の要因により異なる判断が適切となる可能性があることを示唆します。
3. 異なる条件での同一判断例
異なる入力データでありながら、同じ決定に至ったケースを示します。これにより、特定の判断がさまざまな状況で適用可能であることを示します。
有効性の評価ポイント
Post-hoc手法が実際に役立つか判断するには、二つの視点から評価を行う必要があります。まず、AIが下した個々の判断について、正確性と判断根拠の妥当性を確認します。次にシステム全体としての信頼性を評価します。具体的には、経営者から現場の担当者まで、関係者全員が理解し納得できるか、また、お客さまが規制当局に対してシステムの判断を適切に説明できるかを確認します。
Post-hoc手法の限界
Post-hoc手法には重要な制約があることを理解しておく必要があります:
1. AIの判断理由を後から推測するため、完全な説明は困難です
2. AIの内部で起きていることとは異なる説明となっている可能性があります
3. 多数のケースをまとめて説明する際に、十分な説明ができないことがあります
4. この手法の良しあしを判断する標準的な方法がまだ確立されていません
説明可能なAIの実現は、単にAIアルゴリズムを改善すれば達成できるものではありません。また、AIアルゴリズムの選択は重要な要素の一つですが、それだけでは十分ではありません。企業でAIシステムを効果的に活用するには三つの要素が必要です。目的に合ったAIの仕組みを選び、データの品質(特にSN比)を確保し、人間が適切にチェックして必要に応じて修正できる体制を整えることです。
そのため企業は、自社のビジネスニーズに合わせて慎重にAIソリューションを選択する必要があります。その際、AIに期待する成果を明確に定義し、その実現状況を確実に追跡できる仕組みを整えることで、初めて信頼性の高いAIソリューションを実現することができます。