
拓海先生、最近うちの現場でも病理画像のデジタル化を検討している者がいて、色のばらつきで困っていると聞きました。そもそも色ムラってそんなに問題なのですか。

素晴らしい着眼点ですね!病理画像の色ムラは、スキャナや染色手順の差で色味が変わり、診断や自動解析システムの精度を落とすんです。大丈夫、一緒に要点を3つで整理しましょう。1) 見た目の統一が必要、2) 基準スライドに依存しない手法が望ましい、3) 構造(細胞や組織の形)は保持する必要がある、ですよ。

具体的にはどんな技術が効くのですか。うちの現場でできそうなことが知りたいのです。

今回紹介するのはStainGANという手法で、生成対向ネットワーク、英語ではGenerative Adversarial Networks (GAN)(生成対向ネットワーク)を応用しています。要点は、参照スライドを一つ選ぶ必要がなく、複数のスキャナや染色条件から学習して色調を揃える点です。これは、つまり『代表スライドを職人に選ばせる工程を無くす』ということです。

参照スライドを選ぶのは確かに手間とリスクがありますね。ところで、CycleGANという言葉を聞いたことがありますが、それと何が違うのですか。

CycleGANはCycle-Consistent Adversarial Networks (CycleGAN)(サイクル整合性敵対的ネットワーク)で、ペアになっていない画像間での変換を安定させる考え方です。StainGANはその原理を活かして、Aというスキャナの色をHというスキャナの色に変換しても組織構造は変えないように学習します。例えると、異なる工場で作られた製品を見た目だけ統一する塗装ルールを機械学習で作るようなものです。

これって要するに参照スライドを選ばなくていいということ?

はい、その通りです!大きな利点は参照テンプレートを人が選ぶ必要がなく、データ全体の分布から色調を学習する点です。要点を3つにまとめると、1) 手作業を減らせる、2) 見た目の統一が自動化される、3) 下流の診断アルゴリズムの性能が安定する、できるんです。

導入コストの話が出そうです。現場のオペレーションに余計な負担をかけずに済むのであれば投資に見合うかもしれませんが、学習に大量のデータや専門家の手が必要なのでは。

良い視点ですね。StainGANは非対(pairedでない)データで学べるため、厳密に一対一の対応付けや専門家のラベル付けは不要です。現場で取れる未ラベルのスライドを集めれば学習できます。運用面では、学習は一度行えば推論は軽く、導入後は比較的低コストで走らせられますよ。

なるほど。最後に、要点を私の言葉でまとめてみます。StainGANは、人が代表スライドを選ばなくても、いろいろなスキャナや染色の写真を機械に学ばせることで、色味を機械的に合わせてくれる手法、という理解で合っていますか。

素晴らしい着眼点ですね!その理解で完全に合っています。大丈夫、一緒に導入計画を作れば必ず馴染みますよ。


