MPI-CUDAとTensorFlow上のサポートベクターマシン実装(Support Vector Machine Implementation on MPI-CUDA and Tensorflow Framework)

田中専務

拓海先生、お時間よろしいでしょうか。部下から『SVMを並列化して現場で速く回せるようにした方が良い』と言われたのですが、正直どこから手を付けるべきかわかりません。これって要するに投資に見合う効果が出るということでしょうか?

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、一緒に整理すれば見積もりができるようになりますよ。まず結論だけ先に言うと、この論文は『古典的な機械学習手法であるSupport Vector Machine (SVM)(サポートベクターマシン)を、Message Passing Interface (MPI)(メッセージ・パッシング・インターフェース)とCompute Unified Device Architecture (CUDA)(コンピュート ユニファイド デバイス アーキテクチャ)、そしてTensorFlow(TensorFlow)上で並列実装し、計算時間を短縮する実践的な比較を示した』というものですよ。

田中専務

要するに遅い処理を速くするための工夫、という理解で良いですか。うちの現場ではデータ量は増えてきているが、専門のエンジニアが多くいるわけでもない。導入に際して抑えるべきポイントは何でしょうか。

AIメンター拓海

良い質問です。要点を3つにまとめますよ。1つ目はハードウェア選定、2つ目は並列化モデルの適用(MPIやCUDAの使い分け)、3つ目はライブラリとしてのTensorFlowでの再現性です。専門用語は後で具体例で説明しますから安心してください。

田中専務

MPIやCUDAという言葉は聞いたことがありますが、具体的にどう違うのかがわかりません。これって要するに『複数のパソコンをつなぐ方法』と『1台のマシンの中でGPUを使う方法』という理解で良いですか。

AIメンター拓海

まさにその理解でほぼ合っていますよ。わかりやすく言えば、Message Passing Interface (MPI)は複数台のコンピュータが協力して仕事を分担する

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む