論文の概要: Solved in Unit Domain: JacobiNet for Differentiable Coordinate-Transformed PINNs
- arxiv url: http://arxiv.org/abs/2508.02537v2
- Date: Mon, 15 Sep 2025 03:42:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 15:23:16.301447
- Title: Solved in Unit Domain: JacobiNet for Differentiable Coordinate-Transformed PINNs
- Title(参考訳): 単位領域における解法:微分座標変換PINNのためのJacobiNet
- Authors: Xi Chen, Jianchuan Yang, Junjie Zhang, Runnan Yang, Xu Liu, Hong Wang, Tinghui Zheng, Ziyu Ren, Wenqi Hu,
- Abstract要約: JacobiNetは学習ベースの座標変換PINNフレームワークである。
エンドツーエンドの差別化可能なアーキテクチャにおいて、ドメインマッピングとPDE解決を緩和します。
予測精度を平均3.65*で改善し、10*以上のスピードをアップデモする強力な一般化、精度、効率性を実現している。
- 参考スコア(独自算出の注目度): 8.879523745749973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks offer a powerful framework for solving PDEs by embedding physical laws into the learning process. However, when applied to domains with irregular boundaries, PINNs often suffer from instability and slow convergence, which stems from (1) inconsistent normalization due to geometric anisotropy, (2) inaccurate boundary enforcements, and (3) imbalanced loss term competition. A common workaround is to map the domain to a regular space. Yet, conventional mapping methods rely on case-specific meshes, define Jacobians at pre-specified fixed nodes, reformulate PDEs via the chain rule-making them incompatible with modern automatic differentiation, tensor-based frameworks. To bridge this gap, we propose JacobiNet, a learning-based coordinate-transformed PINN framework that unifies domain mapping and PDE solving within an end-to-end differentiable architecture. Leveraging lightweight MLPs, JacobiNet learns continuous, differentiable mappings, enables direct Jacobian computation via autograd, shares computation graph with downstream PINNs. Its continuous nature and built-in Jacobian eliminate the need for meshing, explicit Jacobians computation/ storage, and PDE reformulation, while unlocking geometric-editing operations, reducing the mapping cost. Separating physical modeling from geometric complexity, JacobiNet (1) addresses normalization challenges in the original anisotropic coordinates, (2) facilitates hard constraints of boundary conditions, and (3) mitigates the long-standing imbalance among loss terms. Evaluated on various PDEs, JacobiNet reduces the L2 error from 0.11-0.73 to 0.01-0.09. In vessel-like domains with varying shapes, JacobiNet enables millisecond-level mapping inference for unseen geometries, improves prediction accuracy by an average of 3.65*, while delivering over 10* speed up-demonstrating strong generalization, accuracy, and efficiency.
- Abstract(参考訳): 物理インフォームドニューラルネットワークは、物理法則を学習プロセスに埋め込むことで、PDEを解決するための強力なフレームワークを提供する。
しかし、不規則な境界を持つ領域に適用する場合、PINNは(1)幾何学的異方性による矛盾した正規化、(2)不正確な境界強制、(3)不均衡な損失項競合から生じる不安定性と緩やかな収束に悩まされる。
一般的な回避策は、領域を正規空間にマッピングすることである。
しかし、従来のマッピング手法はケース固有のメッシュに依存し、あらかじめ指定された固定ノードでヤコビアンを定義し、チェーンルールを通じてPDEを再構成し、現代の自動微分であるテンソルベースのフレームワークと互換性を持たせる。
このギャップを埋めるために、我々は、ドメインマッピングとPDE解決をエンドツーエンドの微分可能なアーキテクチャで統合する学習ベースの座標変換PINNフレームワークであるJacobiNetを提案する。
JacobiNetは軽量MPPを活用して、連続的な微分可能なマッピングを学び、オートグレードを介して直接Jacobian計算を可能にし、下流のPINNと計算グラフを共有する。
その連続的な性質と内蔵のJacobianは、メッシュ化、明示的なJacobian計算/ストレージ、PDE再構成の必要性を排除し、幾何編集操作をアンロックし、マッピングコストを削減した。
幾何学的複雑性から物理的モデリングを分離し、ジャコビネット(1)は元の異方性座標における正規化問題に対処し、(2)境界条件の厳密な制約を緩和し、(3)損失項間の長期間の不均衡を緩和する。
様々なPDEで評価され、JacobiNet は L2 の誤差を 0.11-0.73 から 0.01-0.09 に削減した。
形状の異なる容器状ドメインでは、JacobiNetは未知のジオメトリに対するミリ秒レベルのマッピング推論を可能にし、平均3.65*で予測精度を向上すると同時に、10*以上のスピードで強力な一般化、精度、効率を実証する。
関連論文リスト
- Data-Driven Adaptive Gradient Recovery for Unstructured Finite Volume Computations [0.0]
双曲的保存則に対する非構造有限体積法における勾配再構成の強化のための新しいデータ駆動手法を提案する。
提案手法は,DeepONetアーキテクチャを改良して,従来の構造化グリッド手法を非構造化メッシュに拡張する。
提案アルゴリズムは従来の2階有限体積解法よりも高速かつ高精度である。
論文 参考訳(メタデータ) (2025-07-22T13:23:57Z) - Physics-Informed Neural Networks with Hard Nonlinear Equality and Inequality Constraints [0.0]
KKT-Hardnetは、線形および非線形等式および不等式制約を機械精度まで適用するPINNアーキテクチャである。
KKT-Hardnetを実世界の化学プロセスシミュレーションとテスト問題の両方に適用する。
論文 参考訳(メタデータ) (2025-07-10T19:24:53Z) - PhysicsCorrect: A Training-Free Approach for Stable Neural PDE Simulations [4.7903561901859355]
予測ステップ毎にPDE整合性を強制する,トレーニング不要な修正フレームワークであるNyberCorrectを提案する。
私たちの重要なイノベーションは、オフラインのウォームアップフェーズでJacobianとその擬似逆をプリ計算する効率的なキャッシュ戦略です。
3つの代表的なPDEシステムにおいて、物理コレクトは予測誤差を最大100倍に削減し、無視可能な推論時間を加算する。
論文 参考訳(メタデータ) (2025-07-03T01:22:57Z) - Learning based convex approximation for constrained parametric optimization [11.379408842026981]
本稿では、制約付き最適化問題を解決するために、入力ニューラルネットワーク(ICNN)に基づく自己教師付き学習フレームワークを提案する。
厳密な収束解析を行い、このフレームワークが元の問題のKKT近似点に収束することを示す。
提案手法は精度,実現可能性,計算効率の両立を実現している。
論文 参考訳(メタデータ) (2025-05-07T00:33:14Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - A multiobjective continuation method to compute the regularization path of deep neural networks [1.3654846342364308]
数値効率を保証し、モデルの解釈性を改善し、堅牢性を向上させるため、ディープニューラルネットワーク(DNN)では、スパシティは高い特徴である。
本稿では,数百万のパラメータを持つ高次元勾配に対して,上述の目的に対するスパースフロント全体を極めて効率的な方法で実現するアルゴリズムを提案する。
正規化パスの知識がネットワークパラメトリゼーションを十分に一般化することを示す。
論文 参考訳(メタデータ) (2023-08-23T10:08:52Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Adaptivity and Non-stationarity: Problem-dependent Dynamic Regret for Online Convex Optimization [70.4342220499858]
本稿では,スムーズさを生かし,問題依存量による動的後悔のT$への依存を補う新しいオンラインアルゴリズムを提案する。
この結果が本質的な難易度に適応しているのは, 既往の結果よりも厳密であり, 最悪の場合, 同一レートの保護が可能であるからである。
論文 参考訳(メタデータ) (2021-12-29T02:42:59Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - PFNN: A Penalty-Free Neural Network Method for Solving a Class of
Second-Order Boundary-Value Problems on Complex Geometries [4.620110353542715]
本稿では,2次境界値問題のクラスを解くために,ペナルティのないニューラルネットワーク手法であるPFNNを提案する。
PFNNは、精度、柔軟性、堅牢性の点で、既存のいくつかのアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-04-14T13:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。