論文の概要: Native Fortran Implementation of TensorFlow-Trained Deep and Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2502.06853v1
- Date: Fri, 07 Feb 2025 16:58:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:09:36.870282
- Title: Native Fortran Implementation of TensorFlow-Trained Deep and Bayesian Neural Networks
- Title(参考訳): TensorFlow-Trained Deep and Bayesian Neural Networkのネイティブフォルトラン実装
- Authors: Aidan Furlong, Xingang Zhao, Bob Salko, Xu Wu,
- Abstract要約: 本研究では、Fortranでディープニューラルネットワーク(DNN)とベイズニューラルネットワーク(BNN)を実装するためのフレームワークを提案する。
使いやすさと計算効率のために設計されたこのフレームワークは、任意のFortranコードで実装できる。
- 参考スコア(独自算出の注目度): 4.538224798436768
- License:
- Abstract: Over the past decade, the investigation of machine learning (ML) within the field of nuclear engineering has grown significantly. With many approaches reaching maturity, the next phase of investigation will determine the feasibility and usefulness of ML model implementation in a production setting. Several of the codes used for reactor design and assessment are primarily written in the Fortran language, which is not immediately compatible with TensorFlow-trained ML models. This study presents a framework for implementing deep neural networks (DNNs) and Bayesian neural networks (BNNs) in Fortran, allowing for native execution without TensorFlow's C API, Python runtime, or ONNX conversion. Designed for ease of use and computational efficiency, the framework can be implemented in any Fortran code, supporting iterative solvers and UQ via ensembles or BNNs. Verification was performed using a two-input, one-output test case composed of a noisy sinusoid to compare Fortran-based predictions to those from TensorFlow. The DNN predictions showed negligible differences and achieved a 19.6x speedup, whereas the BNN predictions exhibited minor disagreement, plausibly due to differences in random number generation. An 8.0x speedup was noted for BNN inference. The approach was then further verified on a nuclear-relevant problem predicting critical heat flux (CHF), which demonstrated similar behavior along with significant computational gains. Discussion regarding the framework's successful integration into the CTF thermal-hydraulics code is also included, outlining its practical usefulness. Overall, this framework was shown to be effective at implementing both DNN and BNN model inference within Fortran, allowing for the continued study of ML-based methods in real-world nuclear applications.
- Abstract(参考訳): 過去10年間で、核工学の分野における機械学習(ML)の研究は著しく成長した。
多くのアプローチが成熟に達すると、次の調査段階は、実運用環境でのMLモデル実装の実現可能性と有用性を決定する。
原子炉の設計と評価に使用されるいくつかのコードは、主にFortran言語で書かれており、TensorFlowでトレーニングされたMLモデルとすぐには互換性がない。
本研究では、Fortranにディープニューラルネットワーク(DNN)とベイズニューラルネットワーク(BNN)を実装するためのフレームワークを提案する。
使いやすさと計算効率の向上のために設計されたこのフレームワークは、任意のFortranコードで実装でき、アンサンブルやBNNを通じて反復的なソルバとUQをサポートする。
Fortranベースの予測とTensorFlowの予測を比較するために、ノイズの多い正弦波からなる2入力1アウトプットテストケースを使用して検証を行った。
DNNの予測は無視できる差を示し、19.6倍のスピードアップを達成した。
BNNの推測では8.0倍のスピードアップが注目された。
この手法は、臨界熱流束(CHF)を予測する核関連問題(英語版)においてさらに検証され、同様の挙動と大きな計算利得が示された。
CTF熱水和コードへのフレームワークの統合が成功したことについても議論され、その実用性の概要が述べられている。
全体として、このフレームワークはFortran内でDNNとBNNの両方のモデル推論を実装するのに有効であることが示され、現実の核応用におけるMLベースの手法の継続的な研究を可能にした。
関連論文リスト
- Scalable Subsampling Inference for Deep Neural Networks [0.0]
完全連結DNN推定器の性能を測定するために,非漸近誤差境界が開発された。
非ランダムなサブサンプリング手法--scalable subsampling-を応用し、サブタグ付きDNN推定器を構築する。
提案された信頼/予測間隔は有限サンプルでうまく機能しているように見える。
論文 参考訳(メタデータ) (2024-05-14T02:11:38Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - RoseNNa: A performant, portable library for neural network inference
with application to computational fluid dynamics [0.0]
本稿では,ニューラルネットワーク推論とCFDのギャップを埋めるRoseNNaライブラリを提案する。
RoseNNaは、ニューラルネットワーク推論のための非侵襲的で軽量(1000行)ツールである。
論文 参考訳(メタデータ) (2023-07-30T21:11:55Z) - BNN-DP: Robustness Certification of Bayesian Neural Networks via Dynamic
Programming [8.162867143465382]
ベイジアンニューラルネットワークの対向ロバスト性解析のための効率的なフレームワークであるBNN-DPを紹介する。
BNN-DPは, 境界の厳密性と計算効率の両面において, 最先端の手法を最大4桁上回る性能を示した。
論文 参考訳(メタデータ) (2023-06-19T07:19:15Z) - Tensor Slicing and Optimization for Multicore NPUs [2.670309629218727]
本稿では,Slicing Optimization (TSO) と呼ばれるマルチコアNPUに対するコンパイラ最適化パスを提案する。
TSOは、一連のCNNモデルの実行時間を最小化する最高のテンソルスライシングを特定する。
その結果、TSOは一連のCNNモデルの実行時間を最小化する最適なテンソルスライシングを識別できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T12:03:03Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。