論文の概要: Graph-Based Operator Learning from Limited Data on Irregular Domains
- arxiv url: http://arxiv.org/abs/2505.18923v1
- Date: Sun, 25 May 2025 01:06:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.752896
- Title: Graph-Based Operator Learning from Limited Data on Irregular Domains
- Title(参考訳): 不規則領域上の限られたデータからグラフベースの演算子学習
- Authors: Yile Li, Shandian Zhe,
- Abstract要約: 演算子学習は、特に偏微分方程式(PDE)の文脈において、入力関数から出力解への写像を近似しようとする
我々は,不規則なサンプル空間点からグラフを構築し,注目度を高めたグラフニューラルネツーク(GNN)を活用することにより,この制限に対処するグラフベースの演算子学習(GOLA)フレームワークを提案する。
提案手法は,データスカース体制において,不規則領域に対する強い一般化と効率を示すベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 17.225653683970393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator learning seeks to approximate mappings from input functions to output solutions, particularly in the context of partial differential equations (PDEs). While recent advances such as DeepONet and Fourier Neural Operator (FNO) have demonstrated strong performance, they often rely on regular grid discretizations, limiting their applicability to complex or irregular domains. In this work, we propose a Graph-based Operator Learning with Attention (GOLA) framework that addresses this limitation by constructing graphs from irregularly sampled spatial points and leveraging attention-enhanced Graph Neural Netwoks (GNNs) to model spatial dependencies with global information. To improve the expressive capacity, we introduce a Fourier-based encoder that projects input functions into a frequency space using learnable complex coefficients, allowing for flexible embeddings even with sparse or nonuniform samples. We evaluated our approach across a range of 2D PDEs, including Darcy Flow, Advection, Eikonal, and Nonlinear Diffusion, under varying sampling densities. Our method consistently outperforms baselines, particularly in data-scarce regimes, demonstrating strong generalization and efficiency on irregular domains.
- Abstract(参考訳): 演算子学習は、特に偏微分方程式(PDE)の文脈において、入力関数から出力解への写像を近似しようとする。
DeepONet や Fourier Neural Operator (FNO) などの最近の進歩は高い性能を示しているが、それらはしばしば通常のグリッドの離散化に依存しており、複雑なドメインや不規則なドメインに適用可能である。
本研究では,不規則にサンプリングされた空間点からグラフを構築し,空間依存をグローバル情報でモデル化するグラフニューラルネットワーク(GNN)を活用することにより,この制限に対処するグラフベースの演算子学習(GOLA)フレームワークを提案する。
表現能力を向上させるために、学習可能な複素係数を用いて入力関数を周波数空間に投影するフーリエ型エンコーダを導入し、スパースや不均一なサンプルであっても柔軟な埋め込みを可能にする。
サンプル密度の異なるDarcy Flow, Advection, Eikonal, 非線形拡散を含む2次元PDEにおけるアプローチについて検討した。
提案手法は,データスカース体制において,不規則領域に対する強い一般化と効率を示すベースラインを一貫して上回っている。
関連論文リスト
- LASE: Learned Adjacency Spectral Embeddings [7.612218105739107]
グラフ入力から結節隣接スペクトル埋め込み(ASE)を学習する。
LASEは解釈可能で、パラメータ効率が高く、未観測のエッジを持つ入力に対して堅牢である。
LASEレイヤは、Graph Convolutional Network (GCN)と完全に接続されたGraph Attention Network (GAT)モジュールを組み合わせる。
論文 参考訳(メタデータ) (2024-12-23T17:35:19Z) - Spatio-spectral graph neural operator for solving computational mechanics problems on irregular domain and unstructured grid [0.9208007322096533]
本稿では空間GNNとスペクトルGNNを効果的に統合した空間スペクトルグラフニューラル演算子(Sp$2$GNO)を提案する。
このフレームワークは個々のメソッドの制限を緩和し、任意の測地をまたいだ解演算子の学習を可能にする。
論文 参考訳(メタデータ) (2024-09-01T03:59:40Z) - From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - ASWT-SGNN: Adaptive Spectral Wavelet Transform-based Self-Supervised
Graph Neural Network [20.924559944655392]
本稿では,適応スペクトルウェーブレット変換を用いた自己教師付きグラフニューラルネットワーク(ASWT-SGNN)を提案する。
ASWT-SGNNは高密度スペクトル領域におけるフィルタ関数を正確に近似し、コストの高い固有分解を避ける。
ノード分類タスクにおける最先端モデルに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-10T03:07:42Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。