超音波画像に基づく乳がん検出の深層学習(Breast Cancer Detection Using Deep Learning Technique Based On Ultrasound Image)

田中専務

拓海先生、最近部下から「超音波(エコー)画像をAIで診断すべきだ」と言われましてね。論文があると聞いたのですが、どんな話なのか簡単に教えてくださいませんか。

AIメンター拓海

素晴らしい着眼点ですね!この論文は超音波画像から乳がんを分類するためのDeep Learning (DL) 深層学習を用いた仕組みを提示しており、最終的に高い分類精度を達成したというものですよ。大丈夫、一緒に要点を押さえていきましょう。

田中専務

実務的には、どこが一番変わるんでしょうか。投資対効果を考えると、とにかく結果が出ることが重要でして。

AIメンター拓海

結論ファーストで言うと、現場の診断支援の精度が上がることで見逃しの減少と再検査の削減につながる可能性がありますよ。要点を3つにまとめると、画像の前処理、領域抽出(セグメンテーション)、特徴抽出と分類です。これらを段階的に改善している点がポイントなんです。

田中専務

画像の前処理というのは、うちで言えば機械のメンテナンスのようなものでしょうか。入力をきれいにしておく、という理解で合っていますか。

AIメンター拓海

その理解で正しいですよ。前処理は入力データの品質を上げる工程で、雑音を取ったりコントラストを整えたりします。身近な比喩では、良い材料を選んでから加工することで最終製品の不良率を下げる工程に相当します。

田中専務

論文ではU-Net(U-Net)セグメンテーション用ニューラルネットワークを使っていると聞きました。これって要するに、病変の位置を切り出す道具ということ?

AIメンター拓海

正解です。U-Netは画像のどの部分が病変かをピンポイントで示す手法で、検査で注目すべき領域を自動で切り出すことができます。病変の形や位置がばらばらな乳がんでは、この工程が特に重要になるんですよ。

田中専務

さらにMobilenet(MobileNet)という名前も出てきました。これも要するに特徴を抜き出す部品ですか。うちの業務で言えば、検査項目ごとに重要な数値を拾うような作業でしょうか。

AIメンター拓海

比喩が的確ですね。MobileNetは特徴抽出器で、画像の中から診断に効くパターンを効率的に拾うための軽量なモデルです。計算資源が限られる現場にも向くため、運用コストの面でも利点がありますよ。

田中専務

結局、精度はどれくらい出るんですか。論文では99.29%と書いてあると聞きましたが、そんなに信用していいものですか。

AIメンター拓海

数値そのものは魅力的ですが、まずはデータセットの偏りや前処理の違いを確認すべきです。論文の高精度は条件付きの成果であり、現場データにそのまま適用すると誤差や誤診が生じる可能性があります。ですから評価方法とデータの差を見極める必要がありますよ。

田中専務

なるほど。要するに、いい数字だけ見て飛びつくなということで、まずは自社データで検証せよと。これなら私でも理解できます。

AIメンター拓海

おっしゃる通りです。最後に要点を3つにすると、(1)前処理でデータ品質を上げる、(2)U-Netで領域を抽出し、(3)MobileNetで特徴を取りVGG16(VGG16)分類器で判定する流れです。これを自社データで再評価するのが現実的な第一歩ですよ。

田中専務

分かりました。私の言葉でまとめますと、論文は「画像をきれいにし、病変部分を自動で切り出して、特徴を抽出して高精度に分類する方法を示した」ということですね。これなら現場での検証計画も立てられそうです。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む