論文の概要: AMORE: Adaptive Multi-Output Operator Network for Stiff Chemical Kinetics
- arxiv url: http://arxiv.org/abs/2510.12999v1
- Date: Wed, 15 Oct 2025 00:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.428451
- Title: AMORE: Adaptive Multi-Output Operator Network for Stiff Chemical Kinetics
- Title(参考訳): AMORE:Stiff Chemical Kineticsのための適応多出力演算子ネットワーク
- Authors: Kamaljyoti Nath, Additi Pandey, Bryan T. Susi, Hessam Babaee, George Em Karniadakis,
- Abstract要約: 固形系の時間積分は燃焼、超音速、その他の反応性輸送系における計算コストの主要な源である。
複数の出力と適応損失関数を予測できる演算子で構成されるフレームワークであるAMOREを開発した。
- 参考スコア(独自算出の注目度): 4.621457883636921
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Time integration of stiff systems is a primary source of computational cost in combustion, hypersonics, and other reactive transport systems. This stiffness can introduce time scales significantly smaller than those associated with other physical processes, requiring extremely small time steps in explicit schemes or computationally intensive implicit methods. Consequently, strategies to alleviate challenges posed by stiffness are important. While neural operators (DeepONets) can act as surrogates for stiff kinetics, a reliable operator learning strategy is required to appropriately account for differences in the error between output variables and samples. Here, we develop AMORE, Adaptive Multi-Output Operator Network, a framework comprising an operator capable of predicting multiple outputs and adaptive loss functions ensuring reliable operator learning. The operator predicts all thermochemical states from given initial conditions. We propose two adaptive loss functions within the framework, considering each state variable's and sample's error to penalize the loss function. We designed the trunk to automatically satisfy Partition of Unity. To enforce unity mass-fraction constraint exactly, we propose an invertible analytical map that transforms the $n$-dimensional species mass-fraction vector into an ($n-1$)-dimensional space, where DeepONet training is performed. We consider two-step training for DeepONet for multiple outputs and extend adaptive loss functions for trunk and branch training. We demonstrate the efficacy and applicability of our models through two examples: the syngas (12 states) and GRI-Mech 3.0 (24 active states out of 54). The proposed DeepONet will be a backbone for future CFD studies to accelerate turbulent combustion simulations. AMORE is a general framework, and here, in addition to DeepONet, we also demonstrate it for FNO.
- Abstract(参考訳): 固形系の時間積分は燃焼、超音速、その他の反応性輸送系における計算コストの主要な源である。
この剛性は他の物理過程に関連するものよりもはるかに小さな時間スケールを導入でき、明示的なスキームや計算集約的な暗黙の手法において非常に小さな時間ステップを必要とする。
したがって、硬さによって引き起こされる課題を緩和する戦略が重要である。
ニューラル演算子(DeepONets)は、剛性運動学の補助役として機能するが、出力変数とサンプルの誤差の違いを適切に説明するためには、信頼できる演算子学習戦略が必要である。
本稿では,AMORE,Adaptive Multi-Output Operator Networkを開発した。これは,複数の出力を予測できる演算子と,信頼性の高い演算子学習を保証する適応損失関数からなるフレームワークである。
演算子は、与えられた初期状態から全ての熱化学状態を予測する。
本稿では,各状態変数とサンプルの誤差を考慮し,損失関数をペナルティ化する2つの適応的損失関数を提案する。
私たちはユニット分割を自動的に満たすトランクを設計しました。
単体対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対数対
我々は、複数の出力に対するDeepONetの2段階のトレーニングと、トランクとブランチのトレーニングのための適応的損失関数の拡張について検討する。
本研究は, 合成ガス(12状態)とGRI-Mech 3.0(54状態中24状態)の2つの例を通して, モデルの有効性と適用性を実証した。
提案されたDeepONetは、乱流燃焼シミュレーションを加速する将来のCFD研究のバックボーンとなる。
AMOREは一般的なフレームワークであり、ここではDeepONetに加えて、FNOでもそれをデモします。
関連論文リスト
- How deep is your network? Deep vs. shallow learning of transfer operators [0.4473327661758546]
我々は、データから転送演算子とそのスペクトル分解を学習するためのRaNNDyと呼ばれるランダム化ニューラルネットワークアプローチを提案する。
主な利点は、精度の顕著な低下がなければ、このアプローチがトレーニング時間とリソースを大幅に削減することです。
複素力学系の挙動解析に重要な応用があるクープマン作用素やペロン・フロベニウス作用素など、様々な力学作用素に対する結果を示す。
論文 参考訳(メタデータ) (2025-09-24T09:38:42Z) - An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network [7.1950116347185995]
本稿では,レプリカに基づく物理インフォームド演算子学習ネットワークのための進化的多目的最適化を提案する。
我々のフレームワークは、精度、ノイズ、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-31T02:17:59Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - BEExformer: A Fast Inferencing Binarized Transformer with Early Exits [2.7651063843287718]
BAT(Binarized Early Exit Transformer)とEE(Early Exit)を統合した最初の選択型学習ベーストランスであるBEExformerを紹介する。
BATは符号関数に微分可能な二階近似を用い、重みの符号と大きさの両方を捉える勾配を可能にする。
EEメカニズムは、ソフトルーティング損失推定を伴う中間変圧器ブロック間のエントロピーの分数還元に係わる。
これにより、FLOPを52.08%削減して推論を加速し、深層ネットワークに固有の「過剰な」問題を解くことで精度を2.89%向上させる。
論文 参考訳(メタデータ) (2024-12-06T17:58:14Z) - Separable Operator Networks [4.688862638563124]
演算子学習は、偏微分方程式(PDE)によって支配される複雑な物理系をモデル化するための機械学習の強力なツールとなった
本稿では,物理インフォームド演算子の学習効率を大幅に向上させる新しいフレームワークであるSepONetを紹介した。
SepONetは独立したトランクネットワークを使用して、異なる座標軸の基底関数を個別に学習する。
論文 参考訳(メタデータ) (2024-07-15T21:43:41Z) - GSB: Group Superposition Binarization for Vision Transformer with
Limited Training Samples [46.025105938192624]
Vision Transformer (ViT) は様々なコンピュータビジョンタスクにおいて顕著に機能している。
ViTは通常、比較的限られた数のトレーニングサンプルで深刻なオーバーフィッティング問題に悩まされる。
本稿では,GSB(Group Superposition Binarization)と呼ばれる新しいモデルバイナライゼーション手法を提案する。
論文 参考訳(メタデータ) (2023-05-13T14:48:09Z) - HEAT: Hardware-Efficient Automatic Tensor Decomposition for Transformer
Compression [69.36555801766762]
本稿では,分解可能な指数空間を効率的に探索できるハードウェア対応テンソル分解フレームワークHEATを提案する。
ハードウェア対応のBERT変異体は, エネルギー遅延を5.7倍に低減し, 精度が1.1%以下であることを示す。
論文 参考訳(メタデータ) (2022-11-30T05:31:45Z) - Physics-informed machine learning with differentiable programming for
heterogeneous underground reservoir pressure management [64.17887333976593]
地下貯水池の過圧化を避けることは、CO2の沈殿や排水の注入といった用途に欠かせない。
地中における複雑な不均一性のため, 噴射・抽出制御による圧力管理は困難である。
過圧化防止のための流体抽出速度を決定するために、フル物理モデルと機械学習を用いた微分可能プログラミングを用いる。
論文 参考訳(メタデータ) (2022-06-21T20:38:13Z) - Interfacing Finite Elements with Deep Neural Operators for Fast
Multiscale Modeling of Mechanics Problems [4.280301926296439]
本研究では,機械学習を用いたマルチスケールモデリングのアイデアを探求し,高コストソルバの効率的なサロゲートとしてニューラル演算子DeepONetを用いる。
DeepONetは、きめ細かい解法から取得したデータを使って、基礎とおそらく未知のスケールのダイナミクスを学習してオフラインでトレーニングされている。
精度とスピードアップを評価するための様々なベンチマークを提示し、特に時間依存問題に対する結合アルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-25T20:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。