論文の概要: Fast and Accurate Reduced-Order Modeling of a MOOSE-based Additive
Manufacturing Model with Operator Learning
- arxiv url: http://arxiv.org/abs/2308.02462v1
- Date: Fri, 4 Aug 2023 17:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 12:02:49.638737
- Title: Fast and Accurate Reduced-Order Modeling of a MOOSE-based Additive
Manufacturing Model with Operator Learning
- Title(参考訳): オペレータ学習によるムース型添加物製造モデルの高速・高精度化
- Authors: Mahmoud Yaseen, Dewen Yushu, Peter German, Xu Wu
- Abstract要約: 本研究は, 高速かつ高精度な減階モデル (ROM) を構築し, 加法製造 (AM) モデルを構築することを目的とする。
従来のディープニューラルネットワーク(DNN)ベースのROMに対して,これらのOL法の性能をベンチマークした。
- 参考スコア(独自算出の注目度): 1.4528756508275622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One predominant challenge in additive manufacturing (AM) is to achieve
specific material properties by manipulating manufacturing process parameters
during the runtime. Such manipulation tends to increase the computational load
imposed on existing simulation tools employed in AM. The goal of the present
work is to construct a fast and accurate reduced-order model (ROM) for an AM
model developed within the Multiphysics Object-Oriented Simulation Environment
(MOOSE) framework, ultimately reducing the time/cost of AM control and
optimization processes. Our adoption of the operator learning (OL) approach
enabled us to learn a family of differential equations produced by altering
process variables in the laser's Gaussian point heat source. More specifically,
we used the Fourier neural operator (FNO) and deep operator network (DeepONet)
to develop ROMs for time-dependent responses. Furthermore, we benchmarked the
performance of these OL methods against a conventional deep neural network
(DNN)-based ROM. Ultimately, we found that OL methods offer comparable
performance and, in terms of accuracy and generalizability, even outperform DNN
at predicting scalar model responses. The DNN-based ROM afforded the fastest
training time. Furthermore, all the ROMs were faster than the original MOOSE
model yet still provided accurate predictions. FNO had a smaller mean
prediction error than DeepONet, with a larger variance for time-dependent
responses. Unlike DNN, both FNO and DeepONet were able to simulate time series
data without the need for dimensionality reduction techniques. The present work
can help facilitate the AM optimization process by enabling faster execution of
simulation tools while still preserving evaluation accuracy.
- Abstract(参考訳): 添加物製造(am)における主な課題は、実行中に製造プロセスパラメータを操作することで特定の材料特性を達成することである。
このような操作は、AMで使われている既存のシミュレーションツールに課される計算負荷を増加させる傾向にある。
本研究の目的は、マルチフィジカルなオブジェクト指向シミュレーション環境(moose)フレームワーク内で開発されたamモデルに対して、高速で正確な低次モデル(rom)を構築することであり、最終的にはam制御と最適化プロセスの時間とコストを削減することである。
演算子学習(OL)アプローチを採用することで、レーザーのガウス点熱源におけるプロセス変数を変化させることで得られる微分方程式の族を学習できる。
具体的には、時間依存応答のためのROMを開発するために、フーリエニューラルオペレータ(FNO)とディープオペレータネットワーク(DeepONet)を用いた。
さらに,従来のディープニューラルネットワーク(dnn)ベースのromに対するol法の性能のベンチマークを行った。
最終的に、olメソッドは同等のパフォーマンスを提供し、精度と汎用性という意味では、スカラーモデル応答の予測においてdnnよりも優れています。
DNNベースのROMは最速のトレーニング時間を得た。
さらに、全てのROMはオリジナルのMOOSEモデルよりも高速であったが、正確な予測は得られなかった。
FNOはDeepONetよりも平均予測誤差が小さく、時間依存応答のばらつきが大きい。
DNNとは異なり、FNOとDeepONetはどちらも次元削減技術を必要としない時系列データをシミュレートすることができた。
本研究は,評価精度を保ちながらシミュレーションツールの実行を高速化することにより,AM最適化プロセスの促進に役立つ。
関連論文リスト
- An Investigation on Machine Learning Predictive Accuracy Improvement and Uncertainty Reduction using VAE-based Data Augmentation [2.517043342442487]
深層生成学習は、特定のMLモデルを使用して、既存のデータの基盤となる分布を学習し、実際のデータに似た合成サンプルを生成する。
本研究では,変分オートエンコーダ(VAE)を用いた深部生成モデルを用いて,データ拡張の有効性を評価することを目的とする。
本研究では,拡張データを用いてトレーニングしたディープニューラルネットワーク(DNN)モデルの予測において,データ拡張が精度の向上につながるかどうかを検討した。
論文 参考訳(メタデータ) (2024-10-24T18:15:48Z) - Deep Learning for Fast Inference of Mechanistic Models' Parameters [0.28675177318965045]
本稿では,観測対象の力学モデルのパラメータを直接予測するために,ディープニューラルネットワーク(NN)を提案する。
本稿では,ニューラルネットワークとメカニスティックモデルを組み合わせたトレーニング手法を検討する。
ニューラルネットワークの推定値は、さらなる適合によってわずかに改善されているのに対して、これらの推定は、適合手順単独よりも測定精度が良いことがわかった。
論文 参考訳(メタデータ) (2023-12-05T22:16:54Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Reduced Order Modeling of a MOOSE-based Advanced Manufacturing Model
with Operator Learning [2.517043342442487]
先進的製造(AM)は、核材料への潜在的な応用について、原子力コミュニティに多大な関心を集めている。
1つの課題は、実行時に製造プロセスを制御することによって、望ましい材料特性を得ることである。
深部強化学習(DRL)に基づくインテリジェントAMは、最適な設計変数を生成するためのプロセスレベルの自動制御機構に依存している。
論文 参考訳(メタデータ) (2023-08-18T17:38:00Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - MemSE: Fast MSE Prediction for Noisy Memristor-Based DNN Accelerators [5.553959304125023]
我々は,行列ベクトル乗算(MVM)を計算するためにmemristorを用いたDNNの平均二乗誤差を理論的に解析する。
DNNモデルのサイズを小さくする必要性から量子化ノイズと、中間値のプログラミングにおける可変性から生じるプログラミングノイズの両方を考慮に入れている。
提案手法はモンテカルロシミュレーションよりも約2桁高速であり, 与えられた電力制約に対して最小限の誤差を達成するために, 実装パラメータを最適化することができる。
論文 参考訳(メタデータ) (2022-05-03T18:10:43Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Convolutional-Recurrent Neural Network Proxy for Robust Optimization and
Closed-Loop Reservoir Management [0.0]
畳み込みリカレントニューラルネットワーク(CNN-RNN)プロキシモデルを開発した。
この能力は、頑健な最適化に必要な目的関数と非線形制約値の推定を可能にする。
論文 参考訳(メタデータ) (2022-03-14T22:11:17Z) - Can we learn gradients by Hamiltonian Neural Networks? [68.8204255655161]
本稿では,勾配を学習するODEニューラルネットワークに基づくメタラーナを提案する。
提案手法は,LLUアクティベーションを最適化したMLMとMNISTデータセットにおいて,LSTMに基づくメタラーナーよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:35:10Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。