論文の概要: Trace Regularity PINNs: Enforcing $\mathrm{H}^{\frac{1}{2}}(\partial Ω)$ for Boundary Data
- arxiv url: http://arxiv.org/abs/2510.16817v1
- Date: Sun, 19 Oct 2025 13:08:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.165008
- Title: Trace Regularity PINNs: Enforcing $\mathrm{H}^{\frac{1}{2}}(\partial Ω)$ for Boundary Data
- Title(参考訳): トレース正規性PINN:境界データに対して$\mathrm{H}^{\frac{1}{2}}(\partial Ω)$を強制する
- Authors: Doyoon Kim, Junbin Song,
- Abstract要約: 拡張物理インフォームドニューラルネットワーク(PINN)を提案する。
TRPINN(Trace Regularity Physics-Informed Neural Network)は、ソボレフ・スロボデックイノルム$H1/2(partial Omega)$における境界損失を強制する。
正確な$H1/2(partial Omega)$ノルムを組み込むことで、近似が$H1(Omega)$センスの真の解に収束することを示す。
- 参考スコア(独自算出の注目度): 0.48342038441006796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an enhanced physics-informed neural network (PINN), the Trace Regularity Physics-Informed Neural Network (TRPINN), which enforces the boundary loss in the Sobolev-Slobodeckij norm $H^{1/2}(\partial \Omega)$, the correct trace space associated with $H^1(\Omega)$. We reduce computational cost by computing only the theoretically essential portion of the semi-norm and enhance convergence stability by avoiding denominator evaluations in the discretization. By incorporating the exact $H^{1/2}(\partial \Omega)$ norm, we show that the approximation converges to the true solution in the $H^{1}(\Omega)$ sense, and, through Neural Tangent Kernel (NTK) analysis, we demonstrate that TRPINN can converge faster than standard PINNs. Numerical experiments on the Laplace equation with highly oscillatory Dirichlet boundary conditions exhibit cases where TRPINN succeeds even when standard PINNs fail, and show performance improvements of one to three decimal digits.
- Abstract(参考訳): 本稿では,Slobolev-Slobodeckij norm $H^{1/2}(\partial \Omega)$,$H^1(\Omega)$における境界損失を強制する拡張物理情報ニューラルネットワーク(PINN)を提案する。
半ノルムの理論上不可欠な部分のみを計算することで計算コストを削減し、離散化における分母評価を回避して収束安定性を向上させる。
正確な$H^{1/2}(\partial \Omega)$ノルムを組み込むことで、近似が$H^{1}(\Omega)$センスの真の解に収束し、ニューラル・タンジェント・カーネル(NTK)解析により、TRPINNが標準PINNよりも早く収束できることが示される。
高振動ディリクレ境界条件を持つラプラス方程式の数値実験は、標準PINNが故障してもTRPINNが成功する場合を示し、1桁から3桁の性能改善を示す。
関連論文リスト
- Achievable rates in non-asymptotic bosonic quantum communication [0.9999629695552193]
ガウス流路の非漸近容量の計算容易な下界を求める。
我々は2つのガウス状態間のトレース距離を固定精度で計算できる最初のアルゴリズムを設計する。
論文 参考訳(メタデータ) (2025-02-08T11:12:26Z) - Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Generalization and Stability of Interpolating Neural Networks with
Minimal Width [37.908159361149835]
補間系における勾配によって訓練された浅層ニューラルネットワークの一般化と最適化について検討する。
トレーニング損失数は$m=Omega(log4 (n))$ニューロンとニューロンを最小化する。
m=Omega(log4 (n))$のニューロンと$Tapprox n$で、テスト損失のトレーニングを$tildeO (1/)$に制限します。
論文 参考訳(メタデータ) (2023-02-18T05:06:15Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - A lower bound on the space overhead of fault-tolerant quantum computation [51.723084600243716]
しきい値定理は、フォールトトレラント量子計算の理論における基本的な結果である。
振幅雑音を伴う耐故障性量子計算の最大長に対する指数的上限を証明した。
論文 参考訳(メタデータ) (2022-01-31T22:19:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。