深層学習のブラックボックスを開く:眼底画像に基づく緑内障診断における説明可能なAI(XAI)と臨床ドメイン知識の統計的関連性の検証(Opening the black box of deep learning: Validating the statistical association between explainable artificial intelligence (XAI) and clinical domain knowledge in fundus image-based glaucoma diagnosis)

田中専務

拓海先生、部下からAIを導入すべきだと言われまして、正直何から手を付けてよいか分かりません。最近の論文で「AIが人と同じ場所を見ている」といった話を聞きましたが、要するに何が確かになったのですか?

AIメンター拓海

素晴らしい着眼点ですね!一言で言うと、この研究は「深層学習モデルが診断に使う領域(注目領域)が専門家の注目領域と統計的に一致する」という根拠を示したのです。大丈夫、一緒に分解していけば必ず理解できますよ。

田中専務

なるほど。ただ、その”注目領域”って具体的にどうやって測るのですか。現場では『どの部分をモデルが見ているか』が感覚でしか分からないのが問題でして。

AIメンター拓海

質問が的確です。研究ではClass Activation Map(CAM:クラス活性化マップ)という手法を使い、画像のどのピクセルが判断に寄与したかを可視化しています。簡単に言えば、地図に色を付けて『ここを見て判断した可能性が高い』と示すイメージですよ。

田中専務

なるほど、それを人間の見る場所と比べたと。で、結果はどうだったのですか?信頼に足る数字になっているのでしょうか。

AIメンター拓海

要点を3つにまとめますよ。1、モデルの注目領域は視神経乳頭(optic disc)、視神経杯(optic cup)、血管といった臨床で重要な解剖学的構造に統計的に有意に集中していた。2、その集中の度合い(割合)が高いモデルほど予測性能が良かった。3、解析とコードは公開されており、再現性が担保されているため実務評価につなげやすいのです。

田中専務

これって要するに、AIが『人と同じ所に注目して診ている』と統計的に証明したということですか?

AIメンター拓海

その通りです。ただ重要なのは『統計的に一致している』という点で、完全に同じ判断プロセスを人間と共有していると断言するものではありません。むしろ、両者の論理が収束している証拠を示した、という理解が現実的です。

田中専務

導入の観点で気になるのは、これを我が社の現場に当てはめたときの投資対効果です。現場の画質や機器が違ってもうまく働くのか、という疑問があります。

AIメンター拓海

良いご指摘です。ここでの実務的な示唆は三つあります。第一に、データの取得条件や画質が異なる場合は再検証が必要であること。第二に、注目領域の割合をモデル改善の評価指標や報酬に使える可能性があること。第三に、公開コードを使えば自社データでの再現検証が手早く始められるということです。大丈夫、一緒にやれば必ずできますよ。

田中専務

分かりました。自分の言葉で言うと、『この論文はAIの注目領域が医師の注目領域と量的に重なっていることを示し、それが性能とも関連しているため、現場導入の心理的障壁が下がる』ということですね。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む