SuperMUC Phase 2 大規模スケールアウトの教訓(Extreme Scale-out SuperMUC Phase 2 – lessons learned)

田中専務

拓海先生、最近若手から“スーパーコンピュータで全部やれば早くなる”って言われましてね。要するに大きい機械を買えば解決する話ではないのでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!大きな機械が万能というわけではありませんよ。今回はポイントを3つで押さえましょう:準備、並列化の設計、入出力(I/O)の戦略です。大丈夫、一緒に見ていけば理解できますよ。

田中専務

準備というのは、具体的に現場で何をすれば良いのでしょうか。うちの現場はクラウドすら怖がる人が多くて。

AIメンター拓海

良い質問です。要点は(1)スケーリングテスト、(2)チェックポイントとリスタートの間隔、(3)入力ファイルやI/Oの準備です。例えるなら、大型設備を導入する前に運用マニュアルと停電時対応を確実に用意するのと同じですよ。

田中専務

スケーリングテストという言葉は聞きますが、それで投資対効果(ROI)が分かるのですか。現場に負担をかけずに結果を出せるか心配でして。

AIメンター拓海

ROIの見積りもスケーリングテストから始まります。ここで言うスケーリングテストは、プログラムが少ないノード数から多数のコアへ増やしたときにどれだけ速くなるかを測る試験です。要点を3つにまとめると、時間短縮の度合い、コストに対する効率、そして失敗リスクの見積りです。

田中専務

技術的な話で、よくMPIとかOpenMPというのを聞きますが、これって要するにどんな違いがあるのですか?これって要するに通信重視か共有メモリ重視かということ?

AIメンター拓海

素晴らしい着眼点ですね!その通りです。MPI (Message Passing Interface) – メッセージパッシングインターフェース はプロセス間の通信で分散メモリを扱い、OpenMP (Open Multi-Processing) – マルチスレッド共有メモリ はひとつのノード内でスレッドを使って並列化する仕組みです。要点を3つで言うと、MPIはノード間の通信設計が重要、OpenMPはスレッド管理が重要、両者のバランスが性能を左右する、ですよ。

田中専務

なるほど。実運用での問題はどこに出やすいのでしょう。チェックポイントとかI/O戦略という言葉が出ましたが、現場が一番困るところを教えてください。

AIメンター拓海

現場で多い問題はI/O(入出力)でのボトルネック、チェックポイントでの時間ロス、そして入力データ整備の不足です。例えると、工場でいくら生産ラインが速くなっても、材料の搬入が遅ければ稼働率が上がらないのと同じです。対策は事前のリハーサルとI/O最適化の二本立てで行えば効果的です。

田中専務

実際に大きなシステムで効果が出た例はありますか。論文ではSuperMUC Phase 2の話が出ていると聞きましたが。

AIメンター拓海

はい。具体的にはSuperMUC Phase 2というシステムで、7,168コアから86,016コア以上へ強いスケーリング(strong scaling)が示された事例があります。学びとしては、事前準備とワークロードの設計があれば、新しいシステムを導入直後でも大規模実行が可能であるという点です。大丈夫、具体的に手順を示せますよ。

田中専務

では最後に、社内の会議で使える短いまとめをいただけますか。現場に示しやすい言い方でお願いします。

AIメンター拓海

素晴らしい着眼点ですね!短くまとめると三点です。第一に、導入前のスケーリングテストで投資対効果を確認すること。第二に、MPIとOpenMPのバランスを設計すること。第三に、I/Oとチェックポイント戦略を運用に落とし込むことです。大丈夫、一緒に計画を作れば実行できますよ。

田中専務

分かりました。要するに、導入前に綿密な試験計画を作り、並列化の設計とI/O戦略を固めれば現場でも成果が出せるということですね。私の言葉で言い直しますと、準備三点セットをやれば投資は無駄にならない、という理解で合っていますか。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む