Stella Nera: Achieving 161 TOp/s/W with Multiplier-free DNN Acceleration based on Approximate Matrix Multiplication(Stella Nera:近似行列乗算に基づく乗算器不要のDNN加速で161 TOp/s/Wを達成)

田中専務

拓海さん、最近話題のStella Neraって論文の話を聞きました。うちの工場でも省エネでAIを回せるようになるんですか?

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、簡単に整理しますよ。Stella Neraは計算の仕組みを変えて、乗算(Multiply)をほとんど使わずに高速で省電力に行列乗算(Matrix Multiplication、MatMul)を実行する手法をハードウェア化した研究です。つまり、電力と面積の効率を大きく改善できるんです。

田中専務

要するに、電気代がぐっと下がると。現場の機械にAIを付けたいが、電源や冷却がネックでして……それが解消できるなら投資妙味がありますね。

AIメンター拓海

その通りです。ポイントは三つありますよ。1つ目は乗算を使わない近似的な行列計算の考え方、2つ目はそれを学習可能(differentiable)にした点、3つ目は実際に動くチップ実装「Stella Nera」を示して効率を検証した点です。大丈夫、一緒に見ていけば必ずできますよ。

田中専務

学習可能というのは、訓練もその方法でできるという理解でいいですか?現場でモデルをチューニングする余地があるなら安心です。

AIメンター拓海

素晴らしい着眼点ですね!その通りです。一般に近似的な計算は推論(inference)では使えても訓練(training)で使えない場合があるのですが、彼らは「differentiable(微分可能)」に定式化して訓練にも適用できるようにしました。結果として、学習済みモデルをそのまま乗せ替えやすくできますよ。

田中専務

これって要するに、重い計算を簡単な足し算やシフトに変えて、電力とチップ面積を節約するということ?

AIメンター拓海

そうですよ。簡単に言えば、安い部品で同じ仕事をさせる発想です。加えてハードウェア設計を公開しているので、応用先に合わせたカスタマイズも可能です。失敗を恐れず試して、現場での効果を確かめる価値があるんです。

田中専務

分かりました。最後に私が一度まとめてよろしいですか。Stella Neraは乗算を減らした近似的な行列計算を訓練可能にして、実際のチップで省電力・高効率を示した研究、これで合っていますか?

AIメンター拓海

まさにその理解で完璧です!大丈夫、一緒に進めれば必ず成果につながりますよ。次は現場での導入ステップを一緒に設計しましょう。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む