論文の概要: Deep Reinforcement Learning for Adaptive Mesh Refinement
- arxiv url: http://arxiv.org/abs/2209.12351v1
- Date: Sun, 25 Sep 2022 23:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 18:01:45.958207
- Title: Deep Reinforcement Learning for Adaptive Mesh Refinement
- Title(参考訳): 適応メッシュ微細化のための深層強化学習
- Authors: Corbin Foucart, Aaron Charous, Pierre F.J. Lermusiaux
- Abstract要約: 我々は数値シミュレーションから直接AMR戦略のポリシーネットワークを訓練する。
トレーニング過程は、偏微分方程式に対する厳密な解や高忠実な基底真理を必要としない。
深層強化学習政策は、一般的なAMRと競合し、問題クラス全体にわたってうまく一般化し、精度とコストのバランスが良好であることを示す。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Finite element discretizations of problems in computational physics often
rely on adaptive mesh refinement (AMR) to preferentially resolve regions
containing important features during simulation. However, these spatial
refinement strategies are often heuristic and rely on domain-specific knowledge
or trial-and-error. We treat the process of adaptive mesh refinement as a
local, sequential decision-making problem under incomplete information,
formulating AMR as a partially observable Markov decision process. Using a deep
reinforcement learning approach, we train policy networks for AMR strategy
directly from numerical simulation. The training process does not require an
exact solution or a high-fidelity ground truth to the partial differential
equation at hand, nor does it require a pre-computed training dataset. The
local nature of our reinforcement learning formulation allows the policy
network to be trained inexpensively on much smaller problems than those on
which they are deployed. The methodology is not specific to any particular
partial differential equation, problem dimension, or numerical discretization,
and can flexibly incorporate diverse problem physics. To that end, we apply the
approach to a diverse set of partial differential equations, using a variety of
high-order discontinuous Galerkin and hybridizable discontinuous Galerkin
finite element discretizations. We show that the resultant deep reinforcement
learning policies are competitive with common AMR heuristics, generalize well
across problem classes, and strike a favorable balance between accuracy and
cost such that they often lead to a higher accuracy per problem degree of
freedom.
- Abstract(参考訳): 計算物理学における問題の有限要素の離散化は、しばしばシミュレーション中に重要な特徴を含む領域を優先的に解決するために適応メッシュ精錬(AMR)に依存する。
しかし、これらの空間改善戦略はしばしばヒューリスティックであり、ドメイン固有の知識や試行錯誤に依存している。
amrを部分観測可能なマルコフ決定プロセスとして定式化することにより,アダプティブ・メッシュの改良過程を不完全情報の下で局所的,逐次的な意思決定問題として扱う。
深層強化学習手法を用いて,数値シミュレーションから直接AMR戦略のポリシーネットワークを訓練する。
トレーニングプロセスは、手元の偏微分方程式に対する正確な解や高忠実な基底真理を必要とせず、事前計算されたトレーニングデータセットも必要としない。
強化学習の局所的な性質により、ポリシーネットワークは、デプロイされるものよりもずっと小さな問題に対して、安価にトレーニングすることができます。
この方法論は特定の偏微分方程式、問題次元、数値離散化に特化せず、様々な問題物理学を柔軟に組み込むことができる。
そのために、高次不連続ガレルキンとハイブリダイズ可能な不連続ガレルキン有限要素離散化を用いて、様々な偏微分方程式にアプローチを適用する。
その結果,深層強化学習政策は共通のamrヒューリスティックスと競合し,問題クラスをまたいでうまく一般化し,問題の自由度に対して高い精度をもたらすように,正確性とコストのバランスを保っていることが示された。
関連論文リスト
- Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field
and Online Inference [50.91823345296243]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Smoothed Online Learning for Prediction in Piecewise Affine Systems [54.98643421343919]
本稿では,最近開発されたスムーズなオンライン学習フレームワークに基づく。
これは、断片的なアフィン系における予測とシミュレーションのための最初のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-01-26T15:54:14Z) - Multi-Agent Reinforcement Learning for Adaptive Mesh Refinement [17.72127385405445]
完全協調型マルコフゲームとしてアダプティブメッシュリファインメント(AMR)の新たな定式化を提案する。
VDGN(Value Decomposition Graph Network)と呼ばれる新しい深層マルチエージェント強化学習アルゴリズムを設計する。
VDGNポリシは,グローバルエラーおよびコスト指標において,エラーしきい値に基づくポリシよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-02T00:41:32Z) - Guaranteed Conservation of Momentum for Learning Particle-based Fluid
Dynamics [96.9177297872723]
本稿では,学習物理シミュレーションにおける線形運動量を保証する新しい手法を提案する。
我々は、強い制約で運動量の保存を強制し、反対称的な連続的な畳み込み層を通して実現する。
提案手法により,学習シミュレータの物理的精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-12T09:12:59Z) - Learning High-Dimensional McKean-Vlasov Forward-Backward Stochastic
Differential Equations with General Distribution Dependence [6.253771639590562]
本稿では,MV-FBSDEを平均場相互作用の一般形式で計算するための新しいディープラーニング手法を提案する。
我々は、高次元MV-FBSDEを解くために、ディープニューラルネットワークを用いて標準BSDEと近似係数関数を解く。
論文 参考訳(メタデータ) (2022-04-25T18:59:33Z) - Physics and Equality Constrained Artificial Neural Networks: Application
to Partial Differential Equations [1.370633147306388]
偏微分方程式(PDE)の解を学ぶために物理インフォームドニューラルネットワーク(PINN)が提案されている。
本稿では,この目的関数の定式化方法が,PINNアプローチにおける厳密な制約の源であることを示す。
本稿では,逆問題と前方問題の両方に対処可能な多目的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-30T05:55:35Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Reinforcement Learning for Adaptive Mesh Refinement [63.7867809197671]
マルコフ決定過程としてのAMRの新規な定式化を提案し,シミュレーションから直接改良政策を訓練するために深部強化学習を適用した。
これらのポリシーアーキテクチャのモデルサイズはメッシュサイズに依存しないため、任意に大きく複雑なシミュレーションにスケールします。
論文 参考訳(メタデータ) (2021-03-01T22:55:48Z) - A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs [0.0]
MGA-MSGD(Modified Genetic-Multilevel Gradient Descent)トレーニングアルゴリズムを導入しました。
ANNによるPDEによって記述された3次元機械的問題の精度と効率を大幅に改善する。
論文 参考訳(メタデータ) (2020-12-18T10:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。