論文の概要: Neural Interpretable PDEs: Harmonizing Fourier Insights with Attention for Scalable and Interpretable Physics Discovery
- arxiv url: http://arxiv.org/abs/2505.23106v1
- Date: Thu, 29 May 2025 05:18:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.691175
- Title: Neural Interpretable PDEs: Harmonizing Fourier Insights with Attention for Scalable and Interpretable Physics Discovery
- Title(参考訳): Neural Interpretable PDE: スケーラブルで解釈可能な物理発見に注意してフーリエインサイトを調和させる
- Authors: Ning Liu, Yue Yu,
- Abstract要約: NIPS(Neural Interpretable PDE)は,非局所注意演算子(Nonlocal Attention Operators,NAO)を基盤とし,拡張するニューラル演算子アーキテクチャである。
NIPSは、スケーラブルな学習を可能にするために線形アテンション機構を採用し、フーリエ空間におけるチャネル非依存の畳み込みとして機能する学習可能なカーネルネットワークを統合する。
実証的な評価は、NIPSがNAOや他のベースラインを多種多様なベンチマークで一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 15.29112632863168
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Attention mechanisms have emerged as transformative tools in core AI domains such as natural language processing and computer vision. Yet, their largely untapped potential for modeling intricate physical systems presents a compelling frontier. Learning such systems often entails discovering operators that map between functional spaces using limited instances of function pairs -- a task commonly framed as a severely ill-posed inverse PDE problem. In this work, we introduce Neural Interpretable PDEs (NIPS), a novel neural operator architecture that builds upon and enhances Nonlocal Attention Operators (NAO) in both predictive accuracy and computational efficiency. NIPS employs a linear attention mechanism to enable scalable learning and integrates a learnable kernel network that acts as a channel-independent convolution in Fourier space. As a consequence, NIPS eliminates the need to explicitly compute and store large pairwise interactions, effectively amortizing the cost of handling spatial interactions into the Fourier transform. Empirical evaluations demonstrate that NIPS consistently surpasses NAO and other baselines across diverse benchmarks, heralding a substantial leap in scalable, interpretable, and efficient physics learning. Our code and data accompanying this paper are available at https://github.com/fishmoon1234/Nonlocal-Attention-Operator.
- Abstract(参考訳): 自然言語処理やコンピュータビジョンなど、コアAIドメインでは、アテンションメカニズムがトランスフォーメーションツールとして登場している。
しかし、複雑な物理システムをモデリングするための、ほとんど未完成のポテンシャルは、魅力的なフロンティアを示している。
このようなシステムを学ぶには、関数対の限られたインスタンスを使って関数空間間をマッピングする演算子を見つける必要がある。
本研究では,非局所アテンション演算子(NAO)を予測精度と計算効率の両方で構築し,拡張するニューラルオペレータアーキテクチャであるニューラルインタプリタPDE(NIPS)を紹介する。
NIPSは、スケーラブルな学習を可能にするために線形アテンション機構を採用し、フーリエ空間におけるチャネル非依存の畳み込みとして機能する学習可能なカーネルネットワークを統合する。
その結果、NIPSは大きな対の相互作用を明示的に計算し保存する必要性を排除し、空間的相互作用をフーリエ変換に処理するコストを効果的に減らした。
実証的な評価は、NAPSがNAOや他のベースラインを多種多様なベンチマークで一貫して上回り、スケーラブルで解釈可能で効率的な物理学習における大きな飛躍を告げていることを示している。
この論文に付随するコードとデータはhttps://github.com/fishmoon1234/Nonlocal-Attention-Operator.comで公開されています。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Nonlocal Attention Operator: Materializing Hidden Knowledge Towards Interpretable Physics Discovery [25.75410883895742]
非局所注意演算子(NAO)を作製するアテンション機構に基づく新しいニューラル演算子アーキテクチャを提案する。
NAOは正規化を符号化し、一般化性を達成することで、逆PDE問題における不備とランク不足に対処することができる。
論文 参考訳(メタデータ) (2024-08-14T05:57:56Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Inferring Relational Potentials in Interacting Systems [56.498417950856904]
このような相互作用を発見する代替手法として、ニューラル・インタラクション・推論(NIIP)を提案する。
NIIPは観測された関係制約を尊重する軌道のサブセットに低エネルギーを割り当てる。
別々に訓練されたモデル間での相互作用の型を交換するなどの軌道操作や、軌道予測を可能にする。
論文 参考訳(メタデータ) (2023-10-23T00:44:17Z) - Convolutional Neural Operators for robust and accurate learning of PDEs [11.562748612983956]
本稿では、入力や出力として関数を処理する畳み込みニューラルネットワークの新しい適応法を提案する。
結果として生じるアーキテクチャは、畳み込みニューラル演算子(CNO)と呼ばれる。
普遍性定理を証明し、CNOが PDE で生じる作用素を所望の精度で近似できることを示す。
論文 参考訳(メタデータ) (2023-02-02T15:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。