論文の概要: Gated X-TFC: Soft Domain Decomposition for Forward and Inverse Problems in Sharp-Gradient PDEs
- arxiv url: http://arxiv.org/abs/2510.01039v1
- Date: Wed, 01 Oct 2025 15:43:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.653338
- Title: Gated X-TFC: Soft Domain Decomposition for Forward and Inverse Problems in Sharp-Gradient PDEs
- Title(参考訳): Gated X-TFC:シャープ勾配PDEの前方・逆問題に対するソフトドメイン分解
- Authors: Vikas Dwivedi, Enrico Schiassi, Monica Sigovan, Bruno Sixou,
- Abstract要約: Gated X-TFCは、前方および逆問題の両方のための新しいフレームワークである。
ソフトで学習されたドメイン分解によって制限を克服する。
ゲーテッドX-TFCは、計算効率の精度と劇的な改善を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-informed neural networks (PINNs) and related methods struggle to resolve sharp gradients in singularly perturbed boundary value problems without resorting to some form of domain decomposition, which often introduce complex interface penalties. While the Extreme Theory of Functional Connections (X-TFC) avoids multi-objective optimization by employing exact boundary condition enforcement, it remains computationally inefficient for boundary layers and incompatible with decomposition. We propose Gated X-TFC, a novel framework for both forward and inverse problems, that overcomes these limitations through a soft, learned domain decomposition. Our method replaces hard interfaces with a differentiable logistic gate that dynamically adapts radial basis function (RBF) kernel widths across the domain, eliminating the need for interface penalties. This approach yields not only superior accuracy but also dramatic improvements in computational efficiency: on a benchmark one dimensional (1D) convection-diffusion, Gated X-TFC achieves an order-of-magnitude lower error than standard X-TFC while using 80 percent fewer collocation points and reducing training time by 66 percent. In addition, we introduce an operator-conditioned meta-learning layer that learns a probabilistic mapping from PDE parameters to optimal gate configurations, enabling fast, uncertainty-aware warm-starting for new problem instances. We further demonstrate scalability to multiple subdomains and higher dimensions by solving a twin boundary-layer equation and a 2D Poisson problem with a sharp Gaussian source. Overall, Gated X-TFC delivers a simple alternative alternative to PINNs that is both accurate and computationally efficient for challenging boundar-layer regimes. Future work will focus on nonlinear problems.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)と関連する手法は、複雑なインターフェースのペナルティをもたらすようなある種のドメイン分解に頼ることなく、特異な摂動境界値問題における鋭い勾配を解くのに苦労する。
X-TFC(Extreme Theory of Functional Connections)は、境界条件の厳密な適用による多目的最適化を回避しているが、境界層に対しては計算的に非効率であり、分解とは相容れない。
我々は,これらの制約をソフトに学習したドメイン分解によって克服する,前方および逆問題のための新しいフレームワークであるGated X-TFCを提案する。
本手法は, ハードインターフェースを, ラジアル基底関数(RBF)カーネル幅を動的に適応する可変ロジスティックゲートに置き換えることにより, インターフェースのペナルティを不要とする。
1次元(1D)対流拡散のベンチマークでは、Gated X-TFCは、80%のコロケーションポイントを使用し、トレーニング時間を66%削減しながら、標準のX-TFCよりもオーダー・オブ・マグニチュードの低い誤差を達成する。
さらに,PDEパラメータから最適ゲート構成への確率的マッピングを学習する演算子条件付きメタラーニング層を導入し,新しい問題インスタンスの高速かつ不確実性を考慮したウォームスタートを可能にする。
さらに、双対境界層方程式と2次元ポアソン問題を鋭いガウス音源で解くことにより、複数のサブドメインや高次元へのスケーラビリティを実証する。
全体として、Gated X-TFCはPINNに代わる単純な代替手段を提供する。
今後の研究は非線形問題に焦点をあてる。
関連論文リスト
- Recursive Bound-Constrained AdaGrad with Applications to Multilevel and Domain Decomposition Minimization [0.0]
2つのOFOノイズ耐性アルゴリズムが提示され、制約を扱い、不正確な勾配を扱い、二階情報を使用する。
数値実験は、PDEに基づく問題から深層ニューラルネットワークトレーニングに至るまでの応用について論じ、その卓越した計算効率を示す。
論文 参考訳(メタデータ) (2025-07-15T17:32:10Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Non-overlapping, Schwarz-type Domain Decomposition Method for Physics and Equality Constrained Artificial Neural Networks [0.24578723416255746]
一般化されたインタフェース条件を持つ非重複型シュワルツ型領域分解法を提案する。
提案手法は,各サブドメイン内の物理と等価性制約付き人工ニューラルネットワーク(PECANN)を用いている。
ドメイン分解法では、ポアソン方程式とヘルムホルツ方程式の両方の解を学ぶことができる。
論文 参考訳(メタデータ) (2024-09-20T16:48:55Z) - WANCO: Weak Adversarial Networks for Constrained Optimization problems [5.257895611010853]
まず、拡張ラグランジアン法を用いてミニマックス問題をミニマックス問題に変換する。
次に、それぞれ原始変数と双対変数を表すために、2つの(または複数の)ディープニューラルネットワークを使用します。
ニューラルネットワークのパラメータは、敵のプロセスによって訓練される。
論文 参考訳(メタデータ) (2024-07-04T05:37:48Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - LordNet: An Efficient Neural Network for Learning to Solve Parametric Partial Differential Equations without Simulated Data [47.49194807524502]
エンタングルメントをモデル化するためのチューナブルで効率的なニューラルネットワークであるLordNetを提案する。
ポアソン方程式と(2Dおよび3D)ナビエ・ストークス方程式を解く実験は、長距離の絡み合いがロードネットによってうまくモデル化できることを示した。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Adaptivity and Non-stationarity: Problem-dependent Dynamic Regret for Online Convex Optimization [70.4342220499858]
本稿では,スムーズさを生かし,問題依存量による動的後悔のT$への依存を補う新しいオンラインアルゴリズムを提案する。
この結果が本質的な難易度に適応しているのは, 既往の結果よりも厳密であり, 最悪の場合, 同一レートの保護が可能であるからである。
論文 参考訳(メタデータ) (2021-12-29T02:42:59Z) - A Stochastic Composite Augmented Lagrangian Method For Reinforcement
Learning [9.204659134755795]
深層強化学習のための線形プログラミング(LP)の定式化について検討する。
拡張ラグランジアン法は、LPの解法において二重サンプリング障害に悩まされる。
深層パラメタライズされたラグランジアン法を提案する。
論文 参考訳(メタデータ) (2021-05-20T13:08:06Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - PFNN: A Penalty-Free Neural Network Method for Solving a Class of
Second-Order Boundary-Value Problems on Complex Geometries [4.620110353542715]
本稿では,2次境界値問題のクラスを解くために,ペナルティのないニューラルネットワーク手法であるPFNNを提案する。
PFNNは、精度、柔軟性、堅牢性の点で、既存のいくつかのアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-04-14T13:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。