
拓海先生、お時間よろしいですか。最近、端末向けのAIチップで「Tempus Core」という論文が話題だと聞きましたが、正直言って技術的な話は苦手でして、要点を教えていただけますか。

素晴らしい着眼点ですね!大丈夫、短く結論だけ先にお伝えしますと、Tempus Coreはエッジ向けの畳み込み演算を、面積と電力の両面で大きく効率化する「時間型ユニタリ(temporal-unary)+2値(binary)ハイブリッド」エンジンです。ポイントを三つに整理してから、順を追って説明しますよ。

三つにまとめていただけると助かります。まずその方式はうちの現場で使っているDLA(Deep Learning Accelerator)と互換性はあるのでしょうか。導入しても既存投資が無駄にならないかが心配です。

素晴らしい着眼点ですね!結論から言うとTempus Coreは既存のDLAデータフロー、特にNVDLA(NVIDIA Deep Learning Accelerator)互換性を念頭に設計されており、現行の畳み込みデータパスに「置き換え可能」な形で提案されています。次に、なぜ効率化できるかを噛み砕いて説明しますよ。

なるほど。効率化の話ですが、よく聞く「ユニタリ(unary)」というのは従来の計算とどう違うのですか。うちが期待する具体的な効果、例えば面積や電力はどれくらい改善するのですか。



