
拓海先生、最近部下から「ニューロモルフィック」って単語が出てきて、会議で説明を求められました。正直よく分からないのですが、今日の論文はどんな話ですか。

素晴らしい着眼点ですね!今回の論文は、脳をまねたスパイキングニューラルネットワークを、実際のアナログ基盤—ニューロモルフィックハードウェア—で動かしたときに起きるズレに強い構造とは何かを示した研究です。難しい言葉は使わず、順を追って説明しますよ。

アナログハードって聞くと私はちょっと怖い。クラウドならまだ分かるが、物理的なチップでAIがズレるって、現実的にうちの工場にも関係ある話ですか。

大丈夫、必ずできますよ。簡単に言えば、ソフト上で設計したニューラルネットワークを、実世界の物理チップに移すと誤差が出る。今回の論文は、ネットワークの”構造”を工夫することで、その誤差に強くする方法を示しています。要点は三つにまとまりますよ。

これって要するに、設計をちょっと変えればハードの欠点を補えるということですか?具体的にはどんな欠点が問題になるのですか。

素晴らしい着眼点ですね!問題になる代表的なものは、①シナプス伝達の遅延(transmission delays)、②ニューロンの不揃いによる絶対不応期のばらつき(refractory time variability)、③膜電導の飽和(saturating membrane conductances)です。これらはソフトではほとんど扱わないが、物理チップでは現実に発生します。

なるほど。だからと言って、現場でそれを全部キャリブレーション(調整)するのは大変だ。それなら設計で頑丈にする方が現実的に思えますが、どうやっているのですか。

その通りです。著者たちは階層構造(hierarchical connectivity)を持つスパイキングネットワークを使い、Restricted Boltzmann Machineに相当する確率的推論を行わせています。階層により情報の流れが整理され、局所的なズレが全体に波及しにくくなるのです。

要点三つと言っていましたが、まとめていただけますか。私は部下に短く説明したいのです。

もちろんです。簡潔に言うと一つ、階層構造により局所誤差の影響が抑えられる。二つ、ソフトでの学習や再調整を行わなくても、物理ハード上で比較的高い性能を保てる。三つ、これは単一のチップ実験(Spikey)で実証され、より大きなシステムへの道筋を示している、です。

それなら現場でも使えそうですね。ただ、実用化するときのコストや投資対効果が気になります。学習や補正に手間が掛からない点は魅力なのですが、初期投資が大きいのでは。

素晴らしい着眼点ですね!投資対効果の観点では、まずは用途を絞ることが大事です。消費電力や遅延面で有利な場面、例えばセンサー近傍での高速推論やエッジデバイスでの常時監視など、既存のクラウド型ではコストがかさむ領域にまず導入するのが合理的です。

なるほど。最後に、私が会議で使える一行での説明をください。短く、しかし本質をつく一言をお願いします。

大丈夫、一緒にやれば必ずできますよ。会議で使える一行はこうです。「階層的なスパイキングモデルは、物理チップの不完全さに強く、補正なしでも実用的な推論を維持できる可能性がある」。これだけで要点は伝わりますよ。

わかりました。これって要するに「設計を賢くすればハードの不完全さを許容できる」ということですね。では、私の言葉でまとめます。階層構造を持つスパイキングネットはハードのノイズに強く、補正なしで動く現実的な候補である、と。


