論文の概要: Pseudo-differential-enhanced physics-informed neural networks
- arxiv url: http://arxiv.org/abs/2602.14663v1
- Date: Mon, 16 Feb 2026 11:40:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.385654
- Title: Pseudo-differential-enhanced physics-informed neural networks
- Title(参考訳): Pseudo-differential-enhanced Physics-informed Neural Network
- Authors: Andrew Gracyk,
- Abstract要約: Pseudo-differential enhanced Physics-informed Neural Network (PINN)
拡張の拡張であるPINNをフーリエ空間に提示する。
我々の手法は、少ないトレーニングでPINNと数値誤差を比較できることが多い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present pseudo-differential enhanced physics-informed neural networks (PINNs), an extension of gradient enhancement but in Fourier space. Gradient enhancement of PINNs dictates that the PDE residual is taken to a higher differential order than prescribed by the PDE, added to the objective as an augmented term in order to improve training and overall learning fidelity. We propose the same procedure after application via Fourier transforms, since differentiating in Fourier space is multiplication with the Fourier wavenumber under suitable decay. Our methods are fast and efficient. Our methods oftentimes achieve superior PINN versus numerical error in fewer training iterations, potentially pair well with few samples in collocation, and can on occasion break plateaus in low collocation settings. Moreover, our methods are suitable for fractional derivatives. We establish that our methods improve spectral eigenvalue decay of the neural tangent kernel (NTK), and so our methods contribute towards the learning of high frequencies in early training, mitigating the effects of frequency bias up to the polynomial order and possibly greater with smooth activations. Our methods accommodate advanced techniques in PINNs, such as Fourier feature embeddings. A pitfall of discrete Fourier transforms via the Fast Fourier Transform (FFT) is mesh subjugation, and so we demonstrate compatibility of our methods for greater mesh flexibility and invariance on alternative Euclidean and non-Euclidean domains via Monte Carlo methods and otherwise.
- Abstract(参考訳): 本稿では,拡張性拡張の拡張である擬微分強化物理インフォームドニューラルネットワーク(PINN)をフーリエ空間で提案する。
PINNのグラディエント・エンハンスメントは、PDE残差をPDEが定めるよりも高い差分順序にすると規定し、トレーニングと全体的な学習忠実度を改善するために、拡張項として目的に加える。
フーリエ空間における微分は、適切な減衰の下でフーリエ波数と乗算するからである。
私たちの方法は速くて効率的です。
提案手法は,短時間のトレーニングイテレーションにおいて,PINNと数値誤差が優れている場合が多く,コロケーションのサンプルが少ない場合も少なく,時にはコロケーションの設定が低くなる場合も少なくない。
さらに,本手法は分数微分に適している。
提案手法は,ニューラルネットワークカーネル(NTK)のスペクトル固有値減衰を改善するため,早期学習における高周波の学習に寄与し,周波数バイアスの影響を多項式次数まで軽減し,よりスムーズな活性化に寄与する可能性が示唆された。
提案手法は,Fourier機能埋め込みなどのPINNの高度な技術に対応している。
高速フーリエ変換(FFT)による離散フーリエ変換の落とし穴はメッシュ・サブジュゲーションであり、モンテカルロ法による代替ユークリッドおよび非ユークリッド領域におけるメッシュの柔軟性と不変性を示す。
関連論文リスト
- Iterative Training of Physics-Informed Neural Networks with Fourier-enhanced Features [7.1865646765394215]
スペクトルバイアスは、ニューラルネットワークがまず低周波の特徴を学習する傾向にあるが、これはよく知られた問題である。
本稿では,Fourier-enhanced機能付きPINNの反復学習アルゴリズムであるIFeF-PINNを提案する。
論文 参考訳(メタデータ) (2025-10-22T09:17:37Z) - Robustifying Fourier Features Embeddings for Implicit Neural Representations [25.725097757343367]
Inlicit Neural Representation (INR) は、目標関数の対応する値に座標をマッピングすることで、連続関数を表現するためにニューラルネットワークを使用する。
INRは、様々な周波数を含むシーンを扱う際に、スペクトルバイアスとして知られる課題に直面している。
本稿では,多層パーセプトロン (MLP) を添加剤なしで使用することを提案する。
論文 参考訳(メタデータ) (2025-02-08T07:43:37Z) - Solving High Frequency and Multi-Scale PDEs with Gaussian Processes [18.190228010565367]
PINNは、しばしば高周波およびマルチスケールのPDEを解決するのに苦労する。
我々はこの問題を解決するためにガウス過程(GP)フレームワークを利用する。
我々はKroneckerの製品特性と多線型代数を用いて計算効率とスケーラビリティを向上する。
論文 参考訳(メタデータ) (2023-11-08T05:26:58Z) - FC-PINO: High Precision Physics-Informed Neural Operators via Fourier Continuation [60.706803227003995]
FC-PINO(Fourier-Continuation-based PINO)アーキテクチャを導入し、PINOの精度と効率を非周期的および非滑らかなPDEに拡張する。
標準的なPINOは、非周期的および非滑らかなPDEを高い精度で、挑戦的なベンチマークで解くのに苦労していることを実証する。
対照的に、提案されたFC-PINOは、正確で堅牢でスケーラブルなソリューションを提供し、PINOの代替案よりも大幅に優れている。
論文 参考訳(メタデータ) (2022-11-29T06:37:54Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Sigma-Delta and Distributed Noise-Shaping Quantization Methods for
Random Fourier Features [73.25551965751603]
我々は、量子化 RFF が基礎となるカーネルの高精度な近似を可能にすることを証明した。
量子化 RFF はさらに圧縮され,メモリ使用量と精度のトレードオフに優れることを示す。
本手法は,この文脈におけるアート量子化手法の他の状態と比較し,いくつかの機械学習タスクにおいて,提案手法の性能を実証的に示す。
論文 参考訳(メタデータ) (2021-06-04T17:24:47Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。