医療は説明可能なAIをどのように活用できるか?

ヘルスケア、金融、保険、製造業は、人工知能(AI)が大きな影響を与える業界のほんの一部に過ぎない。特定のユースケースの要件を満たすため、より複雑なAIモデルが開発されている。しかし、これらのAIモデルの予測は「ブラックボックス」的な出力であり、それがなぜなされたのかの正当性や説明が欠けているように見える。研究者、組織、規制当局は、AIモデルがどのように提案や予測などを完全に与えているのかを理解する必要があり、説明可能なAI(XAI)が生まれた。

説明可能な人工知能(XAI)は、人工知能の最新かつ最も急成長している分野のひとつである。XAIのアプローチは、深層学習モデルに対して人間が理解できる説明を提供することを目的としている。ヘルスケアやセキュリティのような安全が重要な業界では、これは極めて重要である。長年にわたって文献に記載されているアプローチは、モデルがどのようにしてその結論に至ったのかという疑問に端的に答えると主張することが多い。

医療にXAIが必要なときを理解する

医療従事者は、医療写真をスキャンして人間の目には見えない異常やパターンを見つけることで、リスク管理や意思決定、さらには診断など、さまざまな機能を迅速化・強化するためにAIを活用している。AIは多くの医療従事者にとって不可欠なツールとなっているが、その理解は難しく、特に重要な意思決定を行う際には医療従事者をいらだたせる。

以下のシナリオのいずれかにXAIが必要です。

  • 公平性が最優先され、顧客やエンドユーザーが十分な情報に基づいた選択をするために情報を必要とする場合
  • AIの判断ミスが広範囲に影響を及ぼす場合(不必要な手術を勧めるなど)
  • 悪性腫瘍を誤って分類した結果、過大な金銭的請求、健康リスクの増大、個人的なトラウマにつながるなど、ミスの結果が深刻な場合。
  • AIシステムが新たな仮説を立て、それを特定分野の専門家が検証する必要がある場合。
  • EUの一般データ保護規則(GDPR)のような、自動化されたプロセスがユーザーデータを処理する際に「説明を受ける権利」を保証する規制に準拠することを目的とする。

複数の専門家によれば、医療業界におけるAIシステムの導入が比較的遅れているのは、ブラックボックス化したシステムの結果を独自に確認することが不可能に近いためだという。

しかし、臨床医はXAIを使って、なぜ入院リスクが高いのかを判断することで、患者にとって最善の治療方針を決定することができる。その結果、医師はより信頼できる情報に基づいて意思決定を行うことができる。さらに、臨床判断のトレーサビリティと透明性も向上する。また、医薬品の承認プロセスもXAIによって加速することができる。

医師はXAIからどのような恩恵を受けられるのか?



多くの人の腕時計型心臓モニターは、AIを医療に導入することを考えると溶けてしまうかもしれないが、我々は十分に説明可能で道徳的なアプローチがおしゃぶりになると考えている。それは、医師や他の医療専門家がAIから学ぶのを助けるだけでなく、AIがケアプランを通知するのを助けるために、豊富な過去の患者データや臨床データを活用できることを意味する。

新しい治療オプションが利用可能になるたびに、アルゴリズム全体を評価し、調整する効果的なデータ駆動型プロセスを可能にし、すべての患者に対して追跡可能な個別化プログラムを可能にする。医師への推奨を継続的に改善するため、ほぼ同等の疾患を持つ数千人のデータを組み合わせる。

XAIは、医師や医療専門家が使用することができる。


  • アルゴリズムに権限を与えるのではなく、データから学ぶ。
  • 膨大な学術・医療情報を活用し、公平かつ倫理的に患者に接する。
  • 人間味を犠牲にすることなく、AIで知識を創造する。
  • 問題を早期に発見し、迅速な健康回復のために、より効果的な介入策を講じる。
  • コストを抑えながら、施設、適時性、予算、健康結果を改善する。

結論

持続可能なデジタルトランスフォーメーションに関しては、多くの組織がすでにテクノロジーの飛躍的な成長を活用している。ヘルスケアプロバイダーやライフサイエンス・バイオテクノロジー分野の企業にとって、激動の数年を経てより良い事業運営方法を模索する中で、同じことを行う絶好のタイミングはない。

説明可能性のためのソリューションは、医療従事者がイノベーションを探求しながら自信を保つのに役立つ。さらに、政府が医療技術に厳格な規制を課す場合、説明可能性は、AIのブラックボックスを開き、すべての利害関係者にモデルの意思決定を明確にするための重要な第一歩となるかもしれない。

ja日本語