
拓海さん、最近部下が『論文を読め』と言ってきて困っているんです。タイトルに『ナノメートル』とか書いてあって、うちの工場と何の関係があるのか想像もつきません

素晴らしい着眼点ですね!大丈夫です、わかりやすく噛み砕きますよ。要点は『画像から深さを学習してナノメートル級の位置を特定する方法』なんです

画像から深さを?カメラで撮った写真が奥行きを教えてくれるということですか。それなら現場の検査カメラにも使えるかもしれませんが、何が新しいのですか

重要なのは三つありますよ。第一に従来は光の伝播やレンズの詳細な物理モデルが必要だった点。第二に本研究はモデルに頼らずデータだけで深さを学ぶ点。第三に精度が単焦点法に比べて大幅に良い点です

これって要するに、物理の詳しい式を作らなくても機械学習で代替できるということ?つまり手間が減って現場でも使いやすくなると

その通りですよ。大丈夫、一緒にやれば必ずできますよ。加えて彼らは二つの焦点面を同時に撮るデュアルフォーカルプレーン撮像というシンプルな仕組みを使い、その画像ペアから畳み込みニューラルネットワーク、CNNで深さを推定しています

CNNというのは聞いたことがある。画像認識で強いやつですね。うちで言えば外観検査のAIと同じですか

そうですよ。CNNはConvolutional Neural Network(畳み込みニューラルネットワーク)で、画像中の局所的な特徴を自動で拾うので外観検査と原理は近いです。ただ今回は奥行き、すなわちz方向の非常に微細な変化を学習させています

精度の話がありましたが、どれくらいの改善が見込めるのですか。投資に見合う数字が出るなら話は早い

要点を三つにまとめますよ。第一にこの手法は単一焦点の従来法に比べておよそ6倍高精度で、約40ナノメートルの局在精度を実現しています。第二にモデル設計が単純で適応性が高く、異なる装置へ移植しやすい点。第三に学習データさえ用意すればリアルタイム推定も現実的です

学習データさえ、というのは現場で撮った画像で学習させられるのですか。専門の研究所のデータが必要とかであれば現実的でないと感じますが

良い視点ですね。ここも現実的です。実験ではナノ粒子の軸座標を既知にしてデータセットを作成していますが、工場向けには既存検査装置でラベル付け可能なデータを用意すれば十分です。すなわち初期投資はあるが、運用開始後のコスト低減と精度向上で回収できる可能性が高いです

なるほど。最後に、今すぐ取り組むべきことを教えてください。どの順番で動けばいいですか

要点を三つにまとめますよ。第一に現場の撮像環境を確認して二焦点取得が可能かを検証すること。第二に小さなラベル付きデータセットを作ってプロトタイプで精度を試すこと。第三に性能とROIを検証したのち、段階的に本稼働へ移すことです。大丈夫、一緒にやれば必ずできますよ

わかりました。自分の言葉で言うと、二つの焦点で撮った画像をAIに学習させれば、細かい奥行き情報を式を書かずに得られて、現場での非破壊検査や計測に使えるということですね


