論文の概要: Solved in Unit Domain: JacobiNet for Differentiable Coordinate-Transformed PINNs
- arxiv url: http://arxiv.org/abs/2508.02537v2
- Date: Mon, 15 Sep 2025 03:42:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 15:23:16.301447
- Title: Solved in Unit Domain: JacobiNet for Differentiable Coordinate-Transformed PINNs
- Title(参考訳): 単位領域における解法:微分座標変換PINNのためのJacobiNet
- Authors: Xi Chen, Jianchuan Yang, Junjie Zhang, Runnan Yang, Xu Liu, Hong Wang, Tinghui Zheng, Ziyu Ren, Wenqi Hu,
- Abstract要約: JacobiNetは学習ベースの座標変換PINNフレームワークである。
エンドツーエンドの差別化可能なアーキテクチャにおいて、ドメインマッピングとPDE解決を緩和します。
予測精度を平均3.65*で改善し、10*以上のスピードをアップデモする強力な一般化、精度、効率性を実現している。
- 参考スコア(独自算出の注目度): 8.879523745749973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks offer a powerful framework for solving PDEs by embedding physical laws into the learning process. However, when applied to domains with irregular boundaries, PINNs often suffer from instability and slow convergence, which stems from (1) inconsistent normalization due to geometric anisotropy, (2) inaccurate boundary enforcements, and (3) imbalanced loss term competition. A common workaround is to map the domain to a regular space. Yet, conventional mapping methods rely on case-specific meshes, define Jacobians at pre-specified fixed nodes, reformulate PDEs via the chain rule-making them incompatible with modern automatic differentiation, tensor-based frameworks. To bridge this gap, we propose JacobiNet, a learning-based coordinate-transformed PINN framework that unifies domain mapping and PDE solving within an end-to-end differentiable architecture. Leveraging lightweight MLPs, JacobiNet learns continuous, differentiable mappings, enables direct Jacobian computation via autograd, shares computation graph with downstream PINNs. Its continuous nature and built-in Jacobian eliminate the need for meshing, explicit Jacobians computation/ storage, and PDE reformulation, while unlocking geometric-editing operations, reducing the mapping cost. Separating physical modeling from geometric complexity, JacobiNet (1) addresses normalization challenges in the original anisotropic coordinates, (2) facilitates hard constraints of boundary conditions, and (3) mitigates the long-standing imbalance among loss terms. Evaluated on various PDEs, JacobiNet reduces the L2 error from 0.11-0.73 to 0.01-0.09. In vessel-like domains with varying shapes, JacobiNet enables millisecond-level mapping inference for unseen geometries, improves prediction accuracy by an average of 3.65*, while delivering over 10* speed up-demonstrating strong generalization, accuracy, and efficiency.
- Abstract(参考訳): 物理インフォームドニューラルネットワークは、物理法則を学習プロセスに埋め込むことで、PDEを解決するための強力なフレームワークを提供する。
しかし、不規則な境界を持つ領域に適用する場合、PINNは(1)幾何学的異方性による矛盾した正規化、(2)不正確な境界強制、(3)不均衡な損失項競合から生じる不安定性と緩やかな収束に悩まされる。
一般的な回避策は、領域を正規空間にマッピングすることである。
しかし、従来のマッピング手法はケース固有のメッシュに依存し、あらかじめ指定された固定ノードでヤコビアンを定義し、チェーンルールを通じてPDEを再構成し、現代の自動微分であるテンソルベースのフレームワークと互換性を持たせる。
このギャップを埋めるために、我々は、ドメインマッピングとPDE解決をエンドツーエンドの微分可能なアーキテクチャで統合する学習ベースの座標変換PINNフレームワークであるJacobiNetを提案する。
JacobiNetは軽量MPPを活用して、連続的な微分可能なマッピングを学び、オートグレードを介して直接Jacobian計算を可能にし、下流のPINNと計算グラフを共有する。
その連続的な性質と内蔵のJacobianは、メッシュ化、明示的なJacobian計算/ストレージ、PDE再構成の必要性を排除し、幾何編集操作をアンロックし、マッピングコストを削減した。
幾何学的複雑性から物理的モデリングを分離し、ジャコビネット(1)は元の異方性座標における正規化問題に対処し、(2)境界条件の厳密な制約を緩和し、(3)損失項間の長期間の不均衡を緩和する。
様々なPDEで評価され、JacobiNet は L2 の誤差を 0.11-0.73 から 0.01-0.09 に削減した。
形状の異なる容器状ドメインでは、JacobiNetは未知のジオメトリに対するミリ秒レベルのマッピング推論を可能にし、平均3.65*で予測精度を向上すると同時に、10*以上のスピードで強力な一般化、精度、効率を実証する。
関連論文リスト
- Rethinking Input Domains in Physics-Informed Neural Networks via Geometric Compactification Mappings [17.201530991184814]
微分可能な幾何コンパクト化写像を用いて入力座標を再評価するマッピングパラダイムを導入する。
提案手法は, 1D および 2D PDE に対して, より均一な残差分布と解の精度を示す。
論文 参考訳(メタデータ) (2026-02-18T05:27:53Z) - Boundary condition enforcement with PINNs: a comparative study and verification on 3D geometries [0.0]
物理インフォームドニューラルネットワーク(PINN)は物理学と工学における前方および逆問題の解法として広く研究されている。
メッシュの欠如と偏微分方程式(PDE)の強い形への依存が境界条件の強制を困難にしているため、複雑な三次元幾何学におけるPINNの研究は限られている。
本研究は, 有限要素法などの既存手法との競合が可能な, 成熟した数値法としてPINNを確立する方向への歩みを示すものである。
論文 参考訳(メタデータ) (2025-12-16T22:15:01Z) - Adaptive Mesh-Quantization for Neural PDE Solvers [51.26961483962011]
グラフニューラルネットワークは複雑なジオメトリや境界条件に必要な不規則なメッシュを処理できるが、それでもすべてのノードで一様計算処理を適用できる。
適応メッシュ量子化(Adaptive Mesh Quantization): メッシュノード,エッジ,クラスタ特徴間の空間適応量子化であり,量子化モデルで使用されるビット幅を動的に調整する。
我々は,MP-PDEとGraphViTという2つの最先端モデルと統合して,複数のタスクのパフォーマンスを評価することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2025-11-23T14:47:24Z) - UGM2N: An Unsupervised and Generalizable Mesh Movement Network via M-Uniform Loss [17.62415278198884]
メッシュムーブメント技術はシミュレーション精度と計算効率の両方を向上させる。
既存のアプローチは高い計算複雑性と幾何学的柔軟性に悩まされている。
教師なしおよび一般化可能なメッシュ運動ネットワーク(UGM2N)を提案する。
論文 参考訳(メタデータ) (2025-08-12T03:56:45Z) - Data-Driven Adaptive Gradient Recovery for Unstructured Finite Volume Computations [0.0]
双曲的保存則に対する非構造有限体積法における勾配再構成の強化のための新しいデータ駆動手法を提案する。
提案手法は,DeepONetアーキテクチャを改良して,従来の構造化グリッド手法を非構造化メッシュに拡張する。
提案アルゴリズムは従来の2階有限体積解法よりも高速かつ高精度である。
論文 参考訳(メタデータ) (2025-07-22T13:23:57Z) - Physics-Informed Neural Networks with Hard Nonlinear Equality and Inequality Constraints [0.0]
KKT-Hardnetは、線形および非線形等式および不等式制約を機械精度まで適用するPINNアーキテクチャである。
KKT-Hardnetを実世界の化学プロセスシミュレーションとテスト問題の両方に適用する。
論文 参考訳(メタデータ) (2025-07-10T19:24:53Z) - PhysicsCorrect: A Training-Free Approach for Stable Neural PDE Simulations [4.7903561901859355]
予測ステップ毎にPDE整合性を強制する,トレーニング不要な修正フレームワークであるNyberCorrectを提案する。
私たちの重要なイノベーションは、オフラインのウォームアップフェーズでJacobianとその擬似逆をプリ計算する効率的なキャッシュ戦略です。
3つの代表的なPDEシステムにおいて、物理コレクトは予測誤差を最大100倍に削減し、無視可能な推論時間を加算する。
論文 参考訳(メタデータ) (2025-07-03T01:22:57Z) - Learning based convex approximation for constrained parametric optimization [11.379408842026981]
本稿では、制約付き最適化問題を解決するために、入力ニューラルネットワーク(ICNN)に基づく自己教師付き学習フレームワークを提案する。
厳密な収束解析を行い、このフレームワークが元の問題のKKT近似点に収束することを示す。
提案手法は精度,実現可能性,計算効率の両立を実現している。
論文 参考訳(メタデータ) (2025-05-07T00:33:14Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - General-Kindred Physics-Informed Neural Network to the Solutions of Singularly Perturbed Differential Equations [11.121415128908566]
我々は,Singular Perturbation Differential Equations(SPDE)の解法として,GKPINN(General-Kindred Physics-Informed Neural Network)を提案する。
この手法は, 境界層の事前知識を方程式から利用し, 境界層を近似するPINNを支援する新しいネットワークを確立する。
GKPINNは,確立したPINN法と比較して,2~4桁の誤差を2~4桁に削減し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-08-27T02:03:22Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - A multiobjective continuation method to compute the regularization path of deep neural networks [1.3654846342364308]
数値効率を保証し、モデルの解釈性を改善し、堅牢性を向上させるため、ディープニューラルネットワーク(DNN)では、スパシティは高い特徴である。
本稿では,数百万のパラメータを持つ高次元勾配に対して,上述の目的に対するスパースフロント全体を極めて効率的な方法で実現するアルゴリズムを提案する。
正規化パスの知識がネットワークパラメトリゼーションを十分に一般化することを示す。
論文 参考訳(メタデータ) (2023-08-23T10:08:52Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Adaptivity and Non-stationarity: Problem-dependent Dynamic Regret for Online Convex Optimization [70.4342220499858]
本稿では,スムーズさを生かし,問題依存量による動的後悔のT$への依存を補う新しいオンラインアルゴリズムを提案する。
この結果が本質的な難易度に適応しているのは, 既往の結果よりも厳密であり, 最悪の場合, 同一レートの保護が可能であるからである。
論文 参考訳(メタデータ) (2021-12-29T02:42:59Z) - Local AdaGrad-Type Algorithm for Stochastic Convex-Concave Minimax
Problems [80.46370778277186]
大規模凸凹型ミニマックス問題は、ゲーム理論、堅牢なトレーニング、生成的敵ネットワークのトレーニングなど、多くの応用で発生する。
通信効率のよい分散外グレードアルゴリズムであるLocalAdaSientを開発した。
サーバモデル。
等質な環境と異質な環境の両方において,その有効性を実証する。
論文 参考訳(メタデータ) (2021-06-18T09:42:05Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - PFNN: A Penalty-Free Neural Network Method for Solving a Class of
Second-Order Boundary-Value Problems on Complex Geometries [4.620110353542715]
本稿では,2次境界値問題のクラスを解くために,ペナルティのないニューラルネットワーク手法であるPFNNを提案する。
PFNNは、精度、柔軟性、堅牢性の点で、既存のいくつかのアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-04-14T13:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。