論文の概要: Learning robust marking policies for adaptive mesh refinement
- arxiv url: http://arxiv.org/abs/2207.06339v1
- Date: Wed, 13 Jul 2022 16:56:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 16:05:36.669585
- Title: Learning robust marking policies for adaptive mesh refinement
- Title(参考訳): 適応メッシュ洗練のためのロバストマーキングポリシの学習
- Authors: Andrew Gillette, Brendan Keith, and Socratis Petrides
- Abstract要約: 標準適応有限要素法(AFEM)におけるマーキング決定を再考する。
我々はAMRをマルコフ決定プロセスとして再キャストし、実行時に修正パラメータをオンザフライで選択できる。
単一の再帰角のみを持つ2Dドメインでトレーニングされた単純な$hp$-refinementポリシは、はるかに複雑な2Dドメインにデプロイできるが、パフォーマンスの損失は大きい。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we revisit the marking decisions made in the standard adaptive
finite element method (AFEM). Experience shows that a na\"{i}ve marking policy
leads to inefficient use of computational resources for adaptive mesh
refinement (AMR). Consequently, using AFEM in practice often involves ad-hoc or
time-consuming offline parameter tuning to set appropriate parameters for the
marking subroutine. To address these practical concerns, we recast AMR as a
Markov decision process in which refinement parameters can be selected
on-the-fly at run time, without the need for pre-tuning by expert users. In
this new paradigm, the refinement parameters are also chosen adaptively via a
marking policy that can be optimized using methods from reinforcement learning.
We use the Poisson equation to demonstrate our techniques on $h$- and
$hp$-refinement benchmark problems, and our experiments suggest that superior
marking policies remain undiscovered for many classical AFEM applications.
Furthermore, an unexpected observation from this work is that marking policies
trained on one family of PDEs are sometimes robust enough to perform well on
problems far outside the training family. For illustration, we show that a
simple $hp$-refinement policy trained on 2D domains with only a single
re-entrant corner can be deployed on far more complicated 2D domains, and even
3D domains, without significant performance loss. For reproduction and broader
adoption, we accompany this work with an open-source implementation of our
methods.
- Abstract(参考訳): 本研究では,標準適応有限要素法(AFEM)におけるマーキング決定について再検討する。
経験から、na\"{i}veマーキングポリシーは、適応メッシュ精錬(AMR)に計算資源を非効率に利用することにつながる。
そのため、実際にAFEMを使用する場合、マーキングサブルーチンの適切なパラメータを設定するのに、アドホックまたは時間を要するオフラインパラメータチューニングが必要となることが多い。
これらの実用的な問題に対処するため,我々は,専門家ユーザによる事前調整を必要とせず,実行時にリファインメントパラメータをオンザフライで選択できるマルコフ決定プロセスとしてamrを再キャストする。
この新しいパラダイムでは、強化学習の手法を使って最適化可能なマーキングポリシを通じて、リファインメントパラメータも適応的に選択される。
我々はpoisson方程式を用いて,h$- および $hp$-refinement ベンチマーク問題を実演し,従来の afem アプリケーションでは優れたマーキングポリシーが未発見のままであることを示す。
さらに、この研究の予期せぬ観察は、あるPDEファミリーで訓練されたマーキングポリシーが、トレーニングファミリー以外の問題にうまく対応できるほど頑健である場合があるということである。
例えば、単一の再帰角を持つ2Dドメインでトレーニングされた単純な$hp$-refinementポリシーは、はるかに複雑な2Dドメインや、3Dドメインでも、大幅なパフォーマンス損失を伴わずにデプロイ可能であることを示す。
再現とより広範な採用のために、私たちはこの作業に私たちのメソッドのオープンソース実装を伴います。
関連論文リスト
- Two-Stage ML-Guided Decision Rules for Sequential Decision Making under Uncertainty [55.06411438416805]
SDMU (Sequential Decision Making Under Uncertainty) は、エネルギー、金融、サプライチェーンといった多くの領域において、ユビキタスである。
いくつかのSDMUは、自然にマルチステージ問題(MSP)としてモデル化されているが、結果として得られる最適化は、計算の観点からは明らかに困難である。
本稿では,2段階の一般決定規則(TS-GDR)を導入し,線形関数を超えて政策空間を一般化する手法を提案する。
TS-GDRの有効性は、TS-LDR(Two-Stage Deep Decision Rules)と呼ばれるディープリカレントニューラルネットワークを用いたインスタンス化によって実証される。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - Parameter-Adaptive Approximate MPC: Tuning Neural-Network Controllers without Retraining [50.00291020618743]
この研究は、大規模なデータセットを再計算し、再トレーニングすることなくオンラインチューニングが可能な、新しいパラメータ適応型AMPCアーキテクチャを導入している。
資源制約の厳しいマイクロコントローラ(MCU)を用いた2種類の実カートポールシステムの揺らぎを制御し,パラメータ適応型AMPCの有効性を示す。
これらの貢献は、現実世界のシステムにおけるAMPCの実践的応用に向けた重要な一歩である。
論文 参考訳(メタデータ) (2024-04-08T20:02:19Z) - Recommendations for Baselines and Benchmarking Approximate Gaussian
Processes [16.99022711189259]
我々は,ユーザがメソッドに何を期待すべきかの仕様に基づいて,GP近似を比較することを推奨する。
本研究では,利用者に選択肢を残さない変奏法を訓練する手法を開発した。
論文 参考訳(メタデータ) (2024-02-15T10:11:28Z) - Better Practices for Domain Adaptation [62.70267990659201]
ドメイン適応(DA)は、ラベルを使わずに、モデルを配置データに適用するためのフレームワークを提供することを目的としている。
DAの明確な検証プロトコルは、文献の悪い実践につながっている。
ドメイン適応手法の3つの分野にまたがる課題を示す。
論文 参考訳(メタデータ) (2023-09-07T17:44:18Z) - Stepsize Learning for Policy Gradient Methods in Contextual Markov
Decision Processes [35.889129338603446]
ポリシーに基づくアルゴリズムは、モデルフリーRLにおいて最も広く採用されている手法の一つである。
彼らは、一連の不均一なタスクを達成するように頼まれたときに苦労する傾向があります。
メタMDPと呼ばれる新しい定式化を導入し、RLにおける任意のハイパーパラメータ選択問題を解くのに使うことができる。
論文 参考訳(メタデータ) (2023-06-13T12:58:12Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Solving Multistage Stochastic Linear Programming via Regularized Linear
Decision Rules: An Application to Hydrothermal Dispatch Planning [77.34726150561087]
AdaSO(Adaptive least absolute shrinkage and selection operator)に基づく線形決定規則(LDR)の新しい正規化手法を提案する。
実験により、MSLPを解くために古典的な非正規化LDRを使用する場合、過度に適合する脅威は無視できないことが示された。
LHDP問題に対しては、非正規化ベンチマークと比較して、提案したフレームワークの次の利点を強調した。
論文 参考訳(メタデータ) (2021-10-07T02:36:14Z) - TFPnP: Tuning-free Plug-and-Play Proximal Algorithm with Applications to
Inverse Imaging Problems [22.239477171296056]
Plug-and-Play (MM) は非最適化フレームワークであり、例えば、数値アルゴリズムと高度なデノゲーション前処理を組み合わせたものである。
我々は、学習戦略とともに最先端の成果である、より難解な問題に対するいくつかの実践的考察について論じる。
論文 参考訳(メタデータ) (2020-11-18T14:19:30Z) - Robust Optimal Transport with Applications in Generative Modeling and
Domain Adaptation [120.69747175899421]
ワッサーシュタインのような最適輸送(OT)距離は、GANやドメイン適応のようないくつかの領域で使用されている。
本稿では,現代のディープラーニングアプリケーションに適用可能な,ロバストなOT最適化の計算効率のよい2つの形式を提案する。
提案手法では, ノイズの多いデータセット上で, 外部分布で劣化したGANモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2020-10-12T17:13:40Z) - Similarity-based data mining for online domain adaptation of a sonar ATR
system [2.064612766965483]
本稿では,新しいデータ選択手法を用いて,自動目標認識アルゴリズムのオンライン微調整を提案する。
提案したデータマイニング手法は視覚的類似性に依存し,従来のハードマイニング手法よりも優れている。
論文 参考訳(メタデータ) (2020-09-16T09:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。