論文の概要: GIST: Gauge-Invariant Spectral Transformers for Scalable Graph Neural Operators
- arxiv url: http://arxiv.org/abs/2603.16849v1
- Date: Tue, 17 Mar 2026 17:54:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.465849
- Title: GIST: Gauge-Invariant Spectral Transformers for Scalable Graph Neural Operators
- Title(参考訳): GIST:スケーラブルグラフニューラル演算子のためのゲージ不変スペクトル変換器
- Authors: Mattia Rigotti, Nicholas Thumiger, Thomas Frick,
- Abstract要約: GIST(Gauge-Invariant Spectral Transformers)は、ランダムプロジェクションによるエンドツーエンドの$mathcalO(N)$複雑性を実現する新しいグラフトランスアーキテクチャである。
我々は、GISTが有界ミスマッチ誤りによる離散化不変学習を実現し、ニューラル演算子アプリケーションのための任意のメッシュ解像度間のパラメータ転送を可能にすることを証明した。
- 参考スコア(独自算出の注目度): 9.058225799011545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adapting transformer positional encoding to meshes and graph-structured data presents significant computational challenges: exact spectral methods require cubic-complexity eigendecomposition and can inadvertently break gauge invariance through numerical solver artifacts, while efficient approximate methods sacrifice gauge symmetry by design. Both failure modes cause catastrophic generalization in inductive learning, where models trained with one set of numerical choices fail when encountering different spectral decompositions of similar graphs or discretizations of the same mesh. We propose GIST (Gauge-Invariant Spectral Transformers), a new graph transformer architecture that resolves this challenge by achieving end-to-end $\mathcal{O}(N)$ complexity through random projections while algorithmically preserving gauge invariance via inner-product-based attention on the projected embeddings. We prove GIST achieves discretization-invariant learning with bounded mismatch error, enabling parameter transfer across arbitrary mesh resolutions for neural operator applications. Empirically, GIST matches state-of-the-art on standard graph benchmarks (e.g., achieving 99.50% micro-F1 on PPI) while uniquely scaling to mesh-based Neural Operator benchmarks with up to 750K nodes, achieving state-of-the-art aerodynamic prediction on the challenging DrivAerNet and DrivAerNet++ datasets.
- Abstract(参考訳): 正確なスペクトル法は立方複素固有分解を必要とし、数値解法によってゲージ不変性を不注意に破り、効率的な近似法は設計によるゲージ対称性を犠牲にする。
どちらの障害モードも帰納的学習において破滅的な一般化を引き起こし、同様のグラフの異なるスペクトル分解や同じメッシュの離散化に遭遇する際に、ある数値選択で訓練されたモデルが失敗する。
本稿では,GIST (Gauge-Invariant Spectral Transformers) を提案する。GIST (Gauge-Invariant Spectral Transformers) は,GIST(Gauge-Invariant Spectral Transformers) というグラフトランスフォーマアーキテクチャで,ランダムなプロジェクションを介し,内部積に基づく埋め込みの注意によるゲージ不変性をアルゴリズム的に保ちながら,エンドツーエンドの$\mathcal{O}(N)$複雑性を実現することで,この問題を解決する。
我々は、GISTが有界ミスマッチ誤りによる離散化不変学習を実現し、ニューラル演算子アプリケーションのための任意のメッシュ解像度間のパラメータ転送を可能にすることを証明した。
実証的には、GISTは標準的なグラフベンチマーク(例えば、PPIで99.50%のマイクロF1を達成する)で最先端のものと一致し、最大750Kノードを持つメッシュベースのNeural Operatorベンチマークに独自にスケールし、挑戦するDriivAerNetとDriivAerNet++のデータセットで最先端の空気力学予測を達成している。
関連論文リスト
- Breaking Symmetry Bottlenecks in GNN Readouts [0.764671395172401]
グラフニューラルネットワーク(GNN)は構造化データの学習に広く用いられているが、非同型グラフを識別する能力は基本的に制限されている。
読み出し段階で独立したボトルネックが発生することを示す。
本稿では,ノード表現を対称対応チャネルに分解するプロジェクタベースの不変読み出し手法を提案する。
論文 参考訳(メタデータ) (2026-02-05T18:08:13Z) - Plain Transformers are Surprisingly Powerful Link Predictors [57.01966734467712]
リンク予測はグラフ機械学習における中核的な課題であり、リッチで複雑なトポロジ的依存関係をキャプチャするモデルを必要とする。
グラフニューラルネットワーク(GNN)が標準的なソリューションであるのに対して、最先端のパイプラインは明示的な構造やメモリ集約的なノードの埋め込みに依存していることが多い。
本報告では,手作りのプリミティブに置き換えるエンコーダのみのプレーントランスであるPENCILについて,サンプリングしたローカルサブグラフに注目する。
論文 参考訳(メタデータ) (2026-02-02T02:45:52Z) - LARGE: A Locally Adaptive Regularization Approach for Estimating Gaussian Graphical Models [2.3696387635465608]
グラフ推定のための局所適応正規化法(LARGE)を開発した。
LARGEは、グラフ推定と選択を改善するためにノードワイズチューニングパラメータを適応的に学習するアプローチである。
実際のfMRIデータセットから脳の接続性を推定し,本手法の実用性を示す。
論文 参考訳(メタデータ) (2026-01-14T18:37:50Z) - A Spectral Interpretation of Redundancy in a Graph Reservoir [51.40366905583043]
この研究はMRGNN(Multi resolution Reservoir Graph Neural Network)における貯留層の定義を再考する。
コンピュータグラフィックスにおける表面設計の分野で最初に導入されたフェアリングアルゴリズムに基づく変種を提案する。
この論文の中核的な貢献は、ランダムウォークの観点からのアルゴリズムの理論解析にある。
論文 参考訳(メタデータ) (2025-07-17T10:02:57Z) - GITO: Graph-Informed Transformer Operator for Learning Complex Partial Differential Equations [0.0]
複素偏微分方程式系を学習するための新しいグラフインフォームド・トランスフォーマ演算子(GITO)アーキテクチャを提案する。
GITOは、HGT(Hybrid graph transformer)とTNO(Transformer Neural operator)の2つの主要モジュールから構成される。
ベンチマークPDEタスクの実験的結果は、GITOが既存のトランスフォーマーベースのニューラル演算子より優れていることを示している。
論文 参考訳(メタデータ) (2025-06-16T18:35:45Z) - ASWT-SGNN: Adaptive Spectral Wavelet Transform-based Self-Supervised
Graph Neural Network [20.924559944655392]
本稿では,適応スペクトルウェーブレット変換を用いた自己教師付きグラフニューラルネットワーク(ASWT-SGNN)を提案する。
ASWT-SGNNは高密度スペクトル領域におけるフィルタ関数を正確に近似し、コストの高い固有分解を避ける。
ノード分類タスクにおける最先端モデルに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-10T03:07:42Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - SF-SGL: Solver-Free Spectral Graph Learning from Linear Measurements [16.313489255657203]
線形測定による抵抗ネットワーク学習のためのスペクトルグラフ密度化フレームワーク(SGL)
グラフの多重レベルスペクトル近似を利用するソルバフリー法(SF-SGL)。
ベクトルレスパワー/熱的整合性検証のためのEDAアルゴリズム
論文 参考訳(メタデータ) (2023-02-09T00:33:19Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。