ラビット胎児頭蓋の限定かつサブ最適訓練ラベルによる深層学習ベースのセグメンテーション(Deep learning-based segmentation of rabbit fetal skull with limited and sub-optimal training labels)

田中専務

拓海先生、最近部下から「医療画像のAIで薬の安全性評価を自動化できる」なんて話を聞きまして、正直ピンと来ません。今回の論文は何を変えるんでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!今回の論文は、限られた質の低いラベル(訓練データ)でも、深層学習でウサギ胎児の頭蓋骨を高精度に切り出せる方法を示しています。要点を3つで整理すると、データ再利用の工夫、マルチアトラスによるラベル拡張、U-Net系の畳み込みニューラルネットワークで学習した点です。大丈夫、一緒に見ていけば必ずわかりますよ。

田中専務

なるほど。で、現場に導入するときの不安として、ラベルが悪いと精度が出ないのではと聞いていますが、これって要するに「古いデータをうまく使う方法」を示したということですか?

AIメンター拓海

その通りですよ。つまり要は「完全な新データを大量に用意せず、既存のサブ最適ラベルを賢く拡張して学習に使う」手法です。身近なたとえで言えば、古い顧客名簿に抜けや誤記があっても、複数の名簿を突き合わせて補正してから営業に使うことで効果が出る、という話に似ています。

田中専務

具体的には現場でどうやってラベルを増やすのですか。外部の専門家に全部頼むとコストが跳ね上がります。

AIメンター拓海

本論文では26件の比較的良質なラベルを『アトラス(参照ラベル)』として選び、これを250件の未ラベル画像に写像(レジストレーション)してラベルを生成する手法を取っています。専門家の完全な手作業よりもコストを抑えつつ、得られたラベル群を深層学習に与えて精度を高めています。技術的には画像の位置合わせと多数の参照を融通する工夫が要です。

田中専務

機械学習の専門用語が出てきました。U-Netって聞いたことありますが、現場の人間でもイメージできますか。

AIメンター拓海

素晴らしい着眼点ですね!U-Netは画像の「領域」を見分けるために設計されたネットワークで、写真の中から対象だけを切り出す機能に特化しています。工場で言えば、熟練工が目視で不良箇所を拾う代わりに、カメラとソフトで自動的にその箇所を強調表示する仕組みです。複雑に見えるが、要は局所と全体を行ったり来たりして判断する構造なのです。

田中専務

最後に、実際の精度はどれくらいなのですか。ここが投資判断に直接効くので聞いておきたいです。

AIメンター拓海

論文の報告では、テストセット全体でDice Similarity Coefficient(DSC、ダイス係数)平均0.89を達成し、26個の骨のうち14個が0.93以上の高スコアを記録しています。ビジネスに直すと、手作業の大半を自動化でき、専門家の確認作業が中心になるため、時間とコストの削減が見込めます。ただし、全身の骨や高変動箇所は追加開発が必要です。

田中専務

わかりました。要するに、少ない良質なラベルを起点に既存の大量データを賢くラベル化して学習させ、検査工程を自動化することで効率化できるということですね。自分の言葉で言うと、まずは手持ちのデータを磨いてからAIに学ばせるという順番が現実的だと。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む