論文の概要: Efficient Global-Local Fusion Sampling for Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2510.24026v1
- Date: Tue, 28 Oct 2025 03:10:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.733997
- Title: Efficient Global-Local Fusion Sampling for Physics-Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークのための効率的なグローバルローカル核融合サンプリング
- Authors: Jiaqi Luo, Shixin Xu, Zhouwang Yang,
- Abstract要約: 両手法の強みを組み合わせたグローバルローカル核融合(GLF)サンプリング戦略を提案する。
ガウス雑音を残差に対して逆スケールしたトレーニングポイントを摂動することで、新しいコロケーションポイントを生成する。
さらに計算オーバーヘッドを低減するために,大域的残差分布を近似するために,軽量線形サロゲートを導入する。
- 参考スコア(独自算出の注目度): 5.257115841810259
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The accuracy of Physics-Informed Neural Networks (PINNs) critically depends on the placement of collocation points, as the PDE loss is approximated through sampling over the solution domain. Global sampling ensures stability by covering the entire domain but requires many samples and is computationally expensive, whereas local sampling improves efficiency by focusing on high-residual regions but may neglect well-learned areas, reducing robustness. We propose a Global-Local Fusion (GLF) Sampling Strategy that combines the strengths of both approaches. Specifically, new collocation points are generated by perturbing training points with Gaussian noise scaled inversely to the residual, thereby concentrating samples in difficult regions while preserving exploration. To further reduce computational overhead, a lightweight linear surrogate is introduced to approximate the global residual-based distribution, achieving similar effectiveness at a fraction of the cost. Together, these components, residual-adaptive sampling and residual-based approximation, preserve the stability of global methods while retaining the efficiency of local refinement. Extensive experiments on benchmark PDEs demonstrate that GLF consistently improves both accuracy and efficiency compared with global and local sampling strategies. This study provides a practical and scalable framework for enhancing the reliability and efficiency of PINNs in solving complex and high-dimensional PDEs.
- Abstract(参考訳): 物理情報ニューラルネットワーク(PINN)の精度は、解領域のサンプリングによってPDE損失が近似されるため、コロケーションの配置に依存する。
グローバルサンプリングは、ドメイン全体をカバーすることで安定性を保証するが、多くのサンプルを必要とし、計算コストがかかる。
両手法の強みを組み合わせたグローバルローカル核融合(GLF)サンプリング戦略を提案する。
具体的には、ガウスノイズを残留物に逆向きにスケールしたトレーニングポイントを摂動させ、探索を保ちながら困難な地域でサンプルを集中させることにより、新しいコロケーションポイントを生成する。
さらに計算オーバーヘッドを低減するために, 軽量線形サロゲートを導入し, 大域的残差分布を近似し, 同様の効果を低コストで実現した。
これらの成分、残留適応サンプリングと残留ベース近似は、局所精製の効率を保ちながら、大域的手法の安定性を保っている。
ベンチマークPDEの大規模な実験により、GLFはグローバルおよびローカルサンプリング戦略と比較して、精度と効率の両方を一貫して改善することが示された。
本研究では,複雑かつ高次元のPDEを解く上で,PINNの信頼性と効率を高めるための実用的でスケーラブルなフレームワークを提供する。
関連論文リスト
- Federated Reinforcement Learning in Heterogeneous Environments [9.944647907864255]
本研究では, 局所環境が統計的不均一性を示す, 環境不均一性を伴う連邦強化学習(FRL-EH)フレームワークについて検討する。
このフレームワーク内では、エージェントは、ローカルな軌跡のプライバシーを維持しながら、集合的な経験を集約することで、グローバルなポリシーを共同で学習する。
異質な局所環境とその可塑性摂動におけるロバストな性能を保証する,新たなグローバルな目的関数を提案する。
我々は、期待損失を利用してFedRQを連続的な状態空間を持つ環境に拡張し、状態空間の連続部分集合上の値関数を最小化するという重要な課題に対処する。
論文 参考訳(メタデータ) (2025-07-19T05:06:38Z) - Distributionally Robust Federated Learning with Client Drift Minimization [35.08453461129848]
textitDRDMは分散的に堅牢な最適化フレームワークであり、動的正規化によりクライアントのドリフトを緩和する。
textitDRDMは、最悪のクライアントのパフォーマンスを最大化することを目的とした、min-max最適化問題としてトレーニングをフレーム化している。
実験の結果,textitDRDMは通信ラウンドを減らしながら最悪のテスト精度を著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-05-21T11:05:56Z) - Stochastic Layer-wise Learning: Scalable and Efficient Alternative to Backpropagation [1.0285749562751982]
バックプロパゲーションは現代のディープラーニングを支えるものだが、グローバル同期への依存はスケーラビリティを制限し、高いメモリコストを発生させる。
対照的に、完全に局所的な学習ルールはより効率的であるが、コヒーレントなグローバルラーニングに必要な層間調整を維持するのに苦労することが多い。
本稿では,グローバルな目標を協調的なレイヤローカル更新に分解するレイヤワイズ学習アルゴリズムであるレイヤワイズ学習(SLL)を紹介する。
論文 参考訳(メタデータ) (2025-05-08T12:32:29Z) - Locally Estimated Global Perturbations are Better than Local Perturbations for Federated Sharpness-aware Minimization [81.32266996009575]
フェデレートラーニング(FL)では、クライアント間の複数ステップの更新とデータの均一性が、よりシャープなミニマによるロスランドスケープにつながることが多い。
クライアント側におけるグローバルな摂動方向を局所的に推定する新しいアルゴリズムであるFedLESAMを提案する。
論文 参考訳(メタデータ) (2024-05-29T08:46:21Z) - Learning Regionalization using Accurate Spatial Cost Gradients within a Differentiable High-Resolution Hydrological Model: Application to the French Mediterranean Region [0.18139022013189662]
未採集における分散水文パラメータの推定は, 地域化の問題を引き起こす。
本稿では,学習可能な地域化マッピングを取り入れたハイブリッド・アシミレーション・地域化(HDA-PR)手法を提案する。
その結果,特に上流から下流までの補間において,HDA-PRの強い地域化が顕著となった。
論文 参考訳(メタデータ) (2023-08-02T07:23:50Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Distributionally Robust Federated Averaging [19.875176871167966]
適応サンプリングを用いた堅牢な学習周期平均化のためのコミュニケーション効率の高い分散アルゴリズムを提案する。
我々は、フェデレーション学習環境における理論的結果に関する実験的証拠を裏付ける。
論文 参考訳(メタデータ) (2021-02-25T03:32:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。