論文の概要: Rethinking Input Domains in Physics-Informed Neural Networks via Geometric Compactification Mappings
- arxiv url: http://arxiv.org/abs/2602.16193v1
- Date: Wed, 18 Feb 2026 05:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.519102
- Title: Rethinking Input Domains in Physics-Informed Neural Networks via Geometric Compactification Mappings
- Title(参考訳): 幾何学的コンパクト化マッピングによる物理情報ニューラルネットワークの入力領域の再考
- Authors: Zhenzhen Huang, Haoyu Bian, Jiaquan Zhang, Yibei Liu, Kuien Liu, Caiyan Qin, Guoqing Wang, Yang Yang, Chaoning Zhang,
- Abstract要約: 微分可能な幾何コンパクト化写像を用いて入力座標を再評価するマッピングパラダイムを導入する。
提案手法は, 1D および 2D PDE に対して, より均一な残差分布と解の精度を示す。
- 参考スコア(独自算出の注目度): 17.201530991184814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several complex physical systems are governed by multi-scale partial differential equations (PDEs) that exhibit both smooth low-frequency components and localized high-frequency structures. Existing physics-informed neural network (PINN) methods typically train with fixed coordinate system inputs, where geometric misalignment with these structures induces gradient stiffness and ill-conditioning that hinder convergence. To address this issue, we introduce a mapping paradigm that reshapes the input coordinates through differentiable geometric compactification mappings and couples the geometric structure of PDEs with the spectral properties of residual operators. Based on this paradigm, we propose Geometric Compactification (GC)-PINN, a framework that introduces three mapping strategies for periodic boundaries, far-field scale expansion, and localized singular structures in the input domain without modifying the underlying PINN architecture. Extensive empirical evaluation demonstrates that this approach yields more uniform residual distributions and higher solution accuracy on representative 1D and 2D PDEs, while improving training stability and convergence speed.
- Abstract(参考訳): いくつかの複雑な物理系は、滑らかな低周波成分と局所的な高周波構造の両方を示す多スケール偏微分方程式(PDE)によって制御される。
既存の物理情報ニューラルネットワーク(PINN)の手法は、固定された座標系入力で訓練されるのが一般的である。
この問題に対処するため,PDEの幾何構造と残留作用素のスペクトル特性を結合した,微分可能な幾何コンパクト化写像を用いて入力座標を再結合するマッピングパラダイムを導入する。
このパラダイムに基づいて,周期境界,遠距離スケール展開,入力領域の局所化特異構造を,基礎となるPINNアーキテクチャを変更することなく3つのマッピング戦略を導入するフレームワークであるGeometric Compactification (GC)-PINNを提案する。
実験により, 本手法は, トレーニング安定性と収束速度を改善しつつ, より均一な残留分布と, 代表1Dおよび2D PDEの解の精度を向上することを示した。
関連論文リスト
- The Neural Differential Manifold: An Architecture with Explicit Geometric Structure [8.201374511929538]
本稿では,その基本設計に幾何学的構造を明示的に組み込んだニューラルネットワークアーキテクチャであるニューラル微分マニフォールド(NDM)を紹介する。
我々は、より効率的な最適化の可能性、継続学習の強化、科学的発見と制御可能な生成モデルへの応用など、このアプローチの理論的利点を分析する。
論文 参考訳(メタデータ) (2025-10-29T02:24:27Z) - Generalized Linear Mode Connectivity for Transformers [87.32299363530996]
驚くべき現象はリニアモード接続(LMC)であり、独立に訓練されたモデルを低損失またはゼロ損失の経路で接続することができる。
以前の研究は主に置換によるニューロンの並べ替えに焦点を合わせてきたが、そのようなアプローチは範囲に限られている。
我々は、4つの対称性クラス(置換、半置換、変換、一般可逆写像)をキャプチャする統一的なフレームワークを導入する。
この一般化により、独立に訓練された視覚変換器とGPT-2モデルの間の低障壁とゼロバリア線形経路の発見が可能となった。
論文 参考訳(メタデータ) (2025-06-28T01:46:36Z) - Geometry aware inference of steady state PDEs using Equivariant Neural Fields representations [0.30786914102688595]
本稿では,幾何的変動を考慮した定常PDEの予測手法であるenf2enfを紹介する。
本手法は,特定空間に固定された遅延特徴にジオメトリを符号化し,ネットワーク全体の局所性を保存する。
論文 参考訳(メタデータ) (2025-04-24T08:30:32Z) - Transolver: A Fast Transformer Solver for PDEs on General Geometries [66.82060415622871]
本稿では, 離散化された測地の背後に隠れた本質的な物理状態を学習するTransolverについて述べる。
スライスから符号化された物理認識トークンに注意を向けることで、Transovlerは複雑な物理的相関を効果的に捉えることができる。
Transolverは6つの標準ベンチマークで22%の相対的な利得で一貫した最先端を実現し、大規模産業シミュレーションでも優れている。
論文 参考訳(メタデータ) (2024-02-04T06:37:38Z) - Physics-informed neural networks for transformed geometries and
manifolds [0.0]
本稿では,幾何学的変分を頑健に適合させるために,PINN内に幾何変換を統合する新しい手法を提案する。
従来のPINNに対して,特に幾何学的変動下での柔軟性の向上を実証する。
提案したフレームワークは、パラメータ化されたジオメトリ上でのディープ・ニューラル演算子のトレーニングの展望を示す。
論文 参考訳(メタデータ) (2023-11-27T15:47:33Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Improving Metric Dimensionality Reduction with Distributed Topology [68.8204255655161]
DIPOLEは、局所的、計量的項と大域的、位相的項の両方で損失関数を最小化し、初期埋め込みを補正する次元推論後処理ステップである。
DIPOLEは、UMAP、t-SNE、Isomapといった一般的な手法よりも多くの一般的なデータセットで優れています。
論文 参考訳(メタデータ) (2021-06-14T17:19:44Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。