
田中専務
拓海先生、最近部下から“新しいモデルはMambaってやつが良い”って言われたんですが、正直よくわからなくて。どこが今までと違うんでしょうか。

AIメンター拓海
素晴らしい着眼点ですね!MambaはTransformer(Transformer)とは別の設計で、長い時系列データを効率的に扱えるSelective Structured State Space Models(SSMs:選択構造化状態空間モデル)という枠組みを使っているんですよ。

田中専務
それは要するに、今のTransformerみたいに計算が重くならないってことですか。それなら設備投資も抑えられそうで興味あります。

AIメンター拓海
大丈夫、一緒に整理しますよ。結論を先に言うと、Mambaは計算とメモリの効率を高める設計で、Mamba-Shedderはさらに不要な構造を取り除いて実稼働時のコストを下げるための手法です。要点は三つだけ押さえましょう。

田中専務
三つ、ですか。ええと、まず一つ目は何でしょうか。
