
拓海先生、最近現場から「子どもの行動を動画で解析して早期発見できるらしい」と聞きまして、正直何ができるのか見当がつかないのですが、要点を教えていただけますか。

素晴らしい着眼点ですね!大丈夫、簡単に説明できますよ。結論を先に言うと、この研究は長時間の未編集動画から自閉症スペクトラム障害の典型的/非典型的行動の特徴を自動で学び、重症度を推定できる仕組みを示していますよ。

それは便利そうですが、うちの現場で使えるかどうか、まず「長時間の動画」ってどのくらいですか。現場で数時間撮ることは可能ですが、それを全部人が見るのは大変でして。

素晴らしい着眼点ですね!ここが肝で、研究は数十分から数時間の“未編集(untrimmed)動画”を前提にしています。AIは動画を短い区間に分割して「時空間特徴(spatio-temporal features)」を抽出し、重要な行動を見つけ出すため、人手で全編を監視する負担を大幅に減らせるんです。

なるほど。しかし「学習」にはラベルが必要じゃないですか。我々は専門家の注釈を用意できるほどの余裕はないのですが、その点はどうなっているのですか。



