論文の概要: Architecture-Optimization Co-Design for Physics-Informed Neural Networks Via Attentive Representations and Conflict-Resolved Gradients
- arxiv url: http://arxiv.org/abs/2601.12971v1
- Date: Mon, 19 Jan 2026 11:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.882107
- Title: Architecture-Optimization Co-Design for Physics-Informed Neural Networks Via Attentive Representations and Conflict-Resolved Gradients
- Title(参考訳): 物理インフォームドニューラルネットワークのアーキテクチャ最適化共設計 -注意表現と矛盾解勾配-
- Authors: Pancheng Niu, Jun Guo, Qiaolin He, Yongming Chen, Yanchao Shi,
- Abstract要約: 統合アーキテクチャ最適化の観点からPINNトレーニングについて検討する。
表現の柔軟性を高めるため,レイヤワイドな動的アテンション機構を提案する。
次に、マルチタスク学習問題としてPINNトレーニングを再構築し、競合解決型勾配更新戦略を導入する。
- 参考スコア(独自算出の注目度): 5.447935819547941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) provide a learning-based framework for solving partial differential equations (PDEs) by embedding governing physical laws into neural network training. In practice, however, their performance is often hindered by limited representational capacity and optimization difficulties caused by competing physical constraints and conflicting gradients. In this work, we study PINN training from a unified architecture-optimization perspective. We first propose a layer-wise dynamic attention mechanism to enhance representational flexibility, resulting in the Layer-wise Dynamic Attention PINN (LDA-PINN). We then reformulate PINN training as a multi-task learning problem and introduce a conflict-resolved gradient update strategy to alleviate gradient interference, leading to the Gradient-Conflict-Resolved PINN (GC-PINN). By integrating these two components, we develop the Architecture-Conflict-Resolved PINN (ACR-PINN), which combines attentive representations with conflict-aware optimization while preserving the standard PINN loss formulation. Extensive experiments on benchmark PDEs, including the Burgers, Helmholtz, Klein-Gordon, and lid-driven cavity flow problems, demonstrate that ACR-PINN achieves faster convergence and significantly lower relative $L_2$ and $L_\infty$ errors than standard PINNs. These results highlight the effectiveness of architecture-optimization co-design for improving the robustness and accuracy of PINN-based solvers.
- Abstract(参考訳): 物理情報ニューラルネットワーク(PINN)は、物理法則をニューラルネットワークトレーニングに組み込むことで、偏微分方程式(PDE)を解くための学習ベースのフレームワークを提供する。
しかし、実際には、それらの性能は、競合する物理的制約と矛盾する勾配によって引き起こされる、限られた表現能力と最適化の困難によって妨げられることが多い。
本研究では,統合アーキテクチャ最適化の観点からPINNトレーニングについて検討する。
まず,レイヤワイド・ダイナミック・アテンション・PINN (Layer-wise Dynamic Attention PINN, LDA-PINN) を実現するためのレイヤワイド・ダイナミック・アテンション・メカニズムを提案する。
次に、マルチタスク学習問題としてPINNトレーニングを再構築し、勾配干渉を軽減するために競合解決された勾配更新戦略を導入し、GC-PINN(Gradient-Conflict-Resolved PINN)を導いた。
これら2つのコンポーネントを統合することで、標準的なPINN損失定式化を保ちつつ、注意表現と競合認識最適化を組み合わせたアーキテクチャ・コンフリクト解決PINN(ACR-PINN)を開発した。
Burgers、Helmholtz、Klein-Gordon、および蓋駆動キャビティフロー問題を含むベンチマークPDEの広範な実験は、ACR-PINNが標準のPINNよりも高速な収束を実現し、相対的な$L_2$と$L_\infty$エラーを著しく低減することを示した。
これらの結果は、PINNベースの解法の堅牢性と正確性を改善するために、アーキテクチャ最適化共設計の有効性を強調した。
関連論文リスト
- Binarizing Physics-Inspired GNNs for Combinatorial Optimization [2.5782973781085383]
PI-GNNの性能は問題グラフの密度の増大とともに低下することを示す。
本稿では,ファジィ論理とバイナライズニューラルネットワークの洞察を基盤として,PI-GNNにおけるナイーブ戦略の原則的代替案を提案する。
提案手法のポートフォリオがPI-GNNの性能を大幅に向上することを示す実験を行った。
論文 参考訳(メタデータ) (2025-07-18T07:11:50Z) - ProPINN: Demystifying Propagation Failures in Physics-Informed Neural Networks [71.02216400133858]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法において高い期待を得た
以前の研究では、PINNの伝播不良現象が観察された。
本稿では,伝播不良とその根本原因に関する公式かつ詳細な研究について述べる。
論文 参考訳(メタデータ) (2025-02-02T13:56:38Z) - Learn Singularly Perturbed Solutions via Homotopy Dynamics [7.890817997914349]
特定の摂動問題に対するニューラルネットワークのトレーニングは、損失関数にほぼ特異性を導入するPDEのパラメータによって困難である。
本稿では,これらのパラメータを効果的に操作するためのホモトピー力学に基づく新しい手法を提案する。
実験的に,本手法は収束を著しく加速し,これらの特異摂動問題の精度を向上することを示した。
論文 参考訳(メタデータ) (2025-02-01T16:26:53Z) - Optimizing the Optimizer for Physics-Informed Neural Networks and Kolmogorov-Arnold Networks [3.758814046658822]
物理情報ニューラルネットワーク(PINN)は、部分マグニチュード方程式(PDE)をニューラルネットワークのトレーニングプロセスにソフト制約として統合することにより、計算PDEソリューションに革命をもたらした。
さらに、物理インフォームドネットワーク(PIKAN)も有効であり、精度も同等である。
論文 参考訳(メタデータ) (2025-01-22T21:19:42Z) - A Gaussian Process Framework for Solving Forward and Inverse Problems Involving Nonlinear Partial Differential Equations [0.0]
非線形PDEシステムを解くためにカーネル法とディープNNの長所を統合するためにカーネル重み付き補正残差(CoRes)を導入する。
CoResは幅広いベンチマーク問題の解決において競合する手法を一貫して上回っている。
我々はPDEの解決にカーネル手法を活用することに新たな関心を喚起する可能性があると考えている。
論文 参考訳(メタデータ) (2024-01-07T14:09:42Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。