4 分で読了
1 views

Native Fortran Implementation of TensorFlow-Trained Deep and Bayesian Neural Networks

(TensorFlowで学習した深層・ベイズニューラルネットワークのFortranネイティブ実装)

さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として
一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、
あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

田中専務

拓海先生、最近若手から「モデルをFortranで動かせるようにしよう」と言われたのですが、正直何をもって「動かせる」と言っているのか分かりません。これって要するに何が変わるということですか?

AIメンター拓海

素晴らしい着眼点ですね!要点を先に言うと、大きくは「学習済みのニューラルネットワークモデルをPythonやTensorFlowに依存せずに、Fortranの環境でそのまま実行できる」ようになるということですよ。

田中専務

それは要するに、うちの既存のシミュレーションや設計ツール(多くはFortranで書かれている)にAIを組み込める、という理解でよろしいですか?

AIメンター拓海

はい、その通りです。ここでのポイントは三つあります。第一に、Pythonランタイムへの依存をなくすこと。第二に、ONNX(Open Neural Network Exchange)変換なしで動かせること。第三に、大量の予測を効率良く回せることです。

田中専務

なるほど。投資対効果の観点でいうと、PythonやTensorFlowを全部持ち込むよりメリットが大きいという理解でいいですか。導入コストや保守を考えると魅力はありますが、精度は落ちませんか?

AIメンター拓海

良い質問です。論文では検証ケースで誤差はほとんど無く、Deep Neural Network(DNN、ディープニューラルネットワーク)の推論はTensorFlowと実質同等であると報告されています。ただしBayesian Neural Network(BNN、ベイズニューラルネットワーク)は確率的要素の扱いで乱数生成差が影響し、微小な差異が生じる可能性があると述べています。

田中専務

それで、処理速度はどうなるんですか。現場で大量に予測を回す必要があると聞いていますが、ここが一番の関心事です。

AIメンター拓海

そこも論文の強みです。DNNの推論で約19.6倍のスピードアップ、BNNでも約8.0倍のスピードアップを報告しています。理由はFortran実装が軽量で、余計なランタイムを挟まないためです。つまり繰り返し大量予測がある場面に適しているんです。

田中専務

なるほど。では現場導入でのリスクは?人材やランダムシードの違いで結果がズレるという話がありましたが、その管理は大変ではないですか。

AIメンター拓海

ここも明確です。管理面は三つの対策で現実的に解決できると論文は示唆しています。モデルのバージョン管理、乱数生成(Random Number Generation)を統一すること、そして検証用の簡単なテストセットを常備することです。これで実運用上のズレは抑えられますよ。

田中専務

これって要するに、我々の既存資産(Fortranコード)を活かしてAIを導入できるということですね。余計なランタイムを減らしてコストも管理しやすくなる、と理解すればいいですか。

AIメンター拓海

その理解で合っています。大丈夫、一緒に計画を立てれば導入は可能です。要点は三つ、互換性、性能、管理のしやすさ。これさえ押さえれば、実務寄りの導入計画が立てられますよ。

田中専務

ありがとうございます。では早速部長会で提案してみます。要点は私の言葉で整理すると、「学習済みモデルをFortranで直接動かせるようにして、性能と保守性を上げる」ということですね。

監修者

阪上雅昭(SAKAGAMI Masa-aki)
京都大学 人間・環境学研究科 名誉教授

論文研究シリーズ
前の記事
対抗学習を用いたテキスト要約フレームワーク
(ChallengeMe: An Adversarial Learning-enabled Text Summarization Framework)
次の記事
超人的AIのためのスケーラブルな監督法:再帰的自己批評
(Scalable Oversight for Superhuman AI via Recursive Self-Critiquing)
関連記事
解釈可能な概念の学習:因果表現学習とファウンデーションモデルの統合
(Learning Interpretable Concepts: Unifying Causal Representation Learning and Foundation Models)
条件差分推定へのミニマックス代替損失法
(A Minimax Surrogate Loss Approach to Conditional Difference Estimation)
粗から細への分類器に対する説明可能な敵対的攻撃
(Explainable Adversarial Attacks on Coarse-to-Fine Classifiers)
経済プラットフォームにおけるAI共謀の軽減を学習する
(Learning to Mitigate AI Collusion on Economic Platforms)
新しいDalitzプロットパラメータ測定から何が学べるか
(What can we learn from new measurements of Dalitz plot parameters for K→3π decays?)
敵対的環境における候補者プロフィール最適選択
(Selecting Optimal Candidate Profiles in Adversarial Environments)
この記事をシェア

有益な情報を同僚や仲間と共有しませんか?

AI技術革新 - 人気記事
ブラックホールと量子機械学習の対応
(Black hole/quantum machine learning correspondence)
生成AI検索における敏感なユーザークエリの分類と分析
(Taxonomy and Analysis of Sensitive User Queries in Generative AI Search System)
DiReDi:AIoTアプリケーションのための蒸留と逆蒸留
(DiReDi: Distillation and Reverse Distillation for AIoT Applications)

PCも苦手だった私が

“AIに詳しい人“
として一目置かれる存在に!
  • AIBRプレミアム
  • 実践型生成AI活用キャンプ
あなたにオススメのカテゴリ
論文研究
さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

AI Benchmark Researchをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む