論文の概要: Continuous Methods : Adaptively intrusive reduced order model closure
- arxiv url: http://arxiv.org/abs/2211.16999v1
- Date: Wed, 30 Nov 2022 13:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 18:18:39.832744
- Title: Continuous Methods : Adaptively intrusive reduced order model closure
- Title(参考訳): 連続法 : 適応的侵入的縮小順序モデル閉鎖
- Authors: Emmanuel Menier (LISN, TAU), Michele Alessandro Bucci (TAU), Mouadh
Yagoubi, Lionel Mathelin (LISN), Thibault Dairay, Raphael Meunier, Marc
Schoenauer (TAU)
- Abstract要約: 時間連続メモリの定式化に基づく新しいROM補正手法を提案する。
提案手法は計算コストを低く抑えながら高い精度を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reduced order modeling methods are often used as a mean to reduce simulation
costs in industrial applications. Despite their computational advantages,
reduced order models (ROMs) often fail to accurately reproduce complex dynamics
encountered in real life applications. To address this challenge, we leverage
NeuralODEs to propose a novel ROM correction approach based on a
time-continuous memory formulation. Finally, experimental results show that our
proposed method provides a high level of accuracy while retaining the low
computational costs inherent to reduced models.
- Abstract(参考訳): 工業アプリケーションにおけるシミュレーションコストの削減手段として,低次モデリング手法がよく用いられる。
計算の利点にもかかわらず、還元順序モデル(rom)はしばしば実生活で見られる複雑なダイナミクスを正確に再現することができない。
この課題に対処するため,我々はNeuralODEsを活用し,時間連続メモリの定式化に基づく新しいROM補正手法を提案する。
最後に,実験結果から,提案手法は低計算コストを抑えながら高い精度が得られることを示した。
関連論文リスト
- Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Multi-fidelity reduced-order surrogate modeling [5.346062841242067]
我々は,次元削減と多要素ニューラルネットワークのサロゲートを組み合わせた新しいデータ駆動型戦略を提案する。
このサロゲート法により不安定性と過渡性の開始が良好に捉えられることを示す。
論文 参考訳(メタデータ) (2023-09-01T08:16:53Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Principled Pruning of Bayesian Neural Networks through Variational Free
Energy Minimization [2.3999111269325266]
ベイジアンニューラルネットワークの原理的プルーニングを行うためにベイジアンモデルレダクションを定式化し,適用する。
ベイズモデル削減に伴う問題を緩和するために, 新たな反復刈り込みアルゴリズムを提案する。
本実験は,最先端の刈り取り方式と比較して,優れたモデル性能を示す。
論文 参考訳(メタデータ) (2022-10-17T14:34:42Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Predictive machine learning for prescriptive applications: a coupled
training-validating approach [77.34726150561087]
規範的応用のための予測機械学習モデルをトレーニングするための新しい手法を提案する。
このアプローチは、標準的なトレーニング検証テストスキームの検証ステップを微調整することに基づいている。
合成データを用いたいくつかの実験は、決定論的モデルと実モデルの両方において処方料コストを削減できる有望な結果を示した。
論文 参考訳(メタデータ) (2021-10-22T15:03:20Z) - Non-intrusive Nonlinear Model Reduction via Machine Learning
Approximations to Low-dimensional Operators [0.0]
本稿では,従来の非侵入的手法を用いて,従来型の侵入的縮小順序モデルを正確に近似する手法を提案する。
この手法は、現代の機械学習回帰手法を用いて、プロジェクションベースのリダクションオーダーモデル(ROM)に関連する低次元演算子を近似する。
非侵襲性を実現することに加えて、このアプローチが計算の複雑さを極端に低くし、最大1000ドル程度の実行時間削減を実現することを実証する。
論文 参考訳(メタデータ) (2021-06-17T17:04:42Z) - Neural Closure Models for Dynamical Systems [35.000303827255024]
低忠実度モデルに対する非マルコフ閉閉パラメータ化を学習する新しい手法を開発した。
ニューラルクロージャモデル」はニューラル遅延微分方程式(nDDE)を用いた低忠実度モデルを強化する
非マルコヴィアンオーバーマルコヴィアンクロージャを使用することで、長期的精度が向上し、より小さなネットワークが必要であることを示した。
論文 参考訳(メタデータ) (2020-12-27T05:55:33Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。