論文の概要: A Wachspress-based transfinite formulation for exactly enforcing Dirichlet boundary conditions on convex polygonal domains in physics-informed neural networks
- arxiv url: http://arxiv.org/abs/2601.01756v1
- Date: Mon, 05 Jan 2026 03:15:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.74907
- Title: A Wachspress-based transfinite formulation for exactly enforcing Dirichlet boundary conditions on convex polygonal domains in physics-informed neural networks
- Title(参考訳): 物理インフォームドニューラルネットワークにおける凸多角形領域上のディリクレ境界条件を正確に強制するためのワックスプレスに基づく超有限定式化
- Authors: N. Sukumar, Ritwick Roy,
- Abstract要約: 本稿では,ニューラルネットにおけるディリクレ境界条件の厳密な適用のために,凸多角形領域上のワックスプレスに基づく超有限定式化を提案する。
物理インフォームドニューラルネットワークとディープリッツの精度は、前方、逆、およびパラメータ化された幾何学的ポアソン境界値問題に基づいて評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a Wachspress-based transfinite formulation on convex polygonal domains for exact enforcement of Dirichlet boundary conditions in physics-informed neural networks. This approach leverages prior advances in geometric design such as blending functions and transfinite interpolation over convex domains. For prescribed Dirichlet boundary function $\mathcal{B}$, the transfinite interpolant of $\mathcal{B}$, $g : \bar P \to C^0(\bar P)$, $\textit{lifts}$ functions from the boundary of a two-dimensional polygonal domain to its interior. The trial function is expressed as the difference between the neural network's output and the extension of its boundary restriction into the interior of the domain, with $g$ added to it. This ensures kinematic admissibility of the trial function in the deep Ritz method. Wachspress coordinates for an $n$-gon are used in the transfinite formula, which generalizes bilinear Coons transfinite interpolation on rectangles to convex polygons. The neural network trial function has a bounded Laplacian, thereby overcoming a limitation in a previous contribution where approximate distance functions were used to exactly enforce Dirichlet boundary conditions. For a point $\boldsymbol{x} \in \bar{P}$, Wachspress coordinates, $\boldsymbolλ : \bar P \to [0,1]^n$, serve as a geometric feature map for the neural network: $\boldsymbolλ$ encodes the boundary edges of the polygonal domain. This offers a framework for solving problems on parametrized convex geometries using neural networks. The accuracy of physics-informed neural networks and deep Ritz is assessed on forward, inverse, and parametrized geometric Poisson boundary-value problems.
- Abstract(参考訳): 本稿では、物理インフォームドニューラルネットワークにおけるディリクレ境界条件の厳密な適用のために、凸多角形領域上のワックスプレスに基づく超有限定式化を提案する。
このアプローチは、混合関数や凸領域上の超有限補間のような幾何設計の先進的な進歩を利用する。
所定のディリクレ境界関数 $\mathcal{B}$ に対して、$\mathcal{B}$, $g : \bar P \to C^0(\bar P)$, $\textit{lifts}$ は、2次元の多角形領域の境界から内部への無限補間である。
トライアル関数は、ニューラルネットワークの出力と境界制限のドメイン内部への拡張の違いとして表現され、$g$が加えられる。
これにより、ディープ・リッツ法におけるトライアル関数の運動的許容性が保証される。
n$-ゴンのワックスプレス座標は、直交多角形上の双線型コーンの半有限補間を凸多角形に一般化する超有限式で用いられる。
ニューラルネットワークトライアル関数は境界ラプラシアンを持ち、ディリクレ境界条件を正確に強制するために近似距離関数を用いた以前のコントリビューションの制限を克服する。
点 $\boldsymbol{x} \in \bar{P}$, Wachspress coordinates, $\boldsymbolλ : \bar P \to [0,1]^n$ は、ニューラルネットワークの幾何学的特徴写像として機能する。
これはニューラルネットワークを用いて、パラメトリゼーションされた凸ジオメトリの問題を解決するためのフレームワークを提供する。
物理インフォームドニューラルネットワークとディープリッツの精度は、前方、逆、およびパラメータ化された幾何学的ポアソン境界値問題に基づいて評価される。
関連論文リスト
- A Quotient Homology Theory of Representation in Neural Networks [0.0]
各ポリヘドロンと入力多様体の交叉が凸であれば、ニューラル表現のホモロジー群は商ホモロジー群 $H_k(Phi(mathcalM)) simeq H_k(mathcalM/mathcalO_Phi)$ に同型である。
線形計画法とユニオン・フィンド・アルゴリズムを用いて重なり合う分解を計算する手法を開発した。
論文 参考訳(メタデータ) (2025-02-03T13:52:17Z) - Implicit Hypersurface Approximation Capacity in Deep ReLU Networks [0.0]
本稿では,ReLUアクティベーションを用いたディープフィードフォワードニューラルネットワークの幾何近似理論を開発する。
幅$d+1$の深い完全連結ReLUネットワークは、そのゼロ輪郭として暗黙的に近似を構成することができることを示す。
論文 参考訳(メタデータ) (2024-07-04T11:34:42Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Learning Smooth Neural Functions via Lipschitz Regularization [92.42667575719048]
ニューラルフィールドにおけるスムーズな潜伏空間を促進するために設計された新しい正規化を導入する。
従来のリプシッツ正規化ネットワークと比較して、我々のアルゴリズムは高速で、4行のコードで実装できる。
論文 参考訳(メタデータ) (2022-02-16T21:24:54Z) - Exact imposition of boundary conditions with distance functions in
physics-informed deep neural networks [0.5804039129951741]
本稿では,偏微分方程式の深層学習におけるトレーニングを改善するために,人工ニューラルネットワークにおける幾何対応トライアル関数を提案する。
均質なディリクレ境界条件を正確に課すために、トライアル関数は、PINN近似により$phi$と乗算される。
アフィン境界と曲線境界を持つ領域上の線形および非線形境界値問題に対する数値解を提案する。
論文 参考訳(メタデータ) (2021-04-17T03:02:52Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。