論文の概要: Graph Attention Network for Node Regression on Random Geometric Graphs with Erdős--Rényi contamination
- arxiv url: http://arxiv.org/abs/2601.23239v1
- Date: Fri, 30 Jan 2026 18:09:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.60455
- Title: Graph Attention Network for Node Regression on Random Geometric Graphs with Erdős--Rényi contamination
- Title(参考訳): Erdés-Rényi 汚染によるランダム幾何グラフ上のノード回帰のためのグラフ注意ネットワーク
- Authors: Somak Laha, Suqi Liu, Morgane Austern,
- Abstract要約: そこで本研究では,回帰処理のための記述されたプロキシ機能を構成するタスク固有のGATを慎重に設計し,解析する。
その結果, (a) 回帰係数の推定において, 応答変数の回帰が誤差的に低いことが証明された。
また,複数のノード回帰タスクにおけるアテンション機構の有効性を示す。
- 参考スコア(独自算出の注目度): 2.982218441172364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph attention networks (GATs) are widely used and often appear robust to noise in node covariates and edges, yet rigorous statistical guarantees demonstrating a provable advantage of GATs over non-attention graph neural networks~(GNNs) are scarce. We partially address this gap for node regression with graph-based errors-in-variables models under simultaneous covariate and edge corruption: responses are generated from latent node-level covariates, but only noise-perturbed versions of the latent covariates are observed; and the sample graph is a random geometric graph created from the node covariates but contaminated by independent Erdős--Rényi edges. We propose and analyze a carefully designed, task-specific GAT that constructs denoised proxy features for regression. We prove that regressing the response variables on the proxies achieves lower error asymptotically in (a) estimating the regression coefficient compared to the ordinary least squares (OLS) estimator on the noisy node covariates, and (b) predicting the response for an unlabelled node compared to a vanilla graph convolutional network~(GCN) -- under mild growth conditions. Our analysis leverages high-dimensional geometric tail bounds and concentration for neighbourhood counts and sample covariances. We verify our theoretical findings through experiments on synthetically generated data. We also perform experiments on real-world graphs and demonstrate the effectiveness of the attention mechanism in several node regression tasks.
- Abstract(参考訳): グラフアテンションネットワーク(GAT)は広く使われており、ノードの共変量やエッジのノイズに対して堅牢に見えることが多いが、非アテンショングラフニューラルネットワーク~(GNN)に対するGATの証明可能な優位性を示す厳密な統計的保証は乏しい。
グラフに基づく誤差不変変数モデルとグラフに基づく誤差不変変数モデルとの差は, 潜在ノードレベルの共変数から応答が生成されるが, 遅延共変数のノイズ摂動バージョンのみが観測され, サンプルグラフはノード共変数から生成されるが, 独立したエルデシュ=レーニ・エッジによって汚染されるランダムな幾何学グラフである。
そこで本研究では,回帰処理のための記述されたプロキシ機能を構成するタスク固有のGATを慎重に設計し,解析する。
我々は, 応答変数のプロキシへの回帰が漸近的に低い誤差を実現することを証明した。
(a)雑音ノード共変体上の通常最小二乗(OLS)推定器と比較して回帰係数を推定し、
(b) 緩やかな成長条件下でのバニラグラフ畳み込みネットワーク~(GCN)と比較して, 乱れのないノードの応答を予測する。
本分析では, 近傍の計数と試料の共分散に対する高次元的テール境界と濃度を利用する。
我々は, 合成データを用いた実験により, 理論的知見を検証した。
また、実世界のグラフの実験を行い、複数のノード回帰タスクにおける注意機構の有効性を実証する。
関連論文リスト
- Generalization of Geometric Graph Neural Networks with Lipschitz Loss Functions [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
複数の実世界のデータセットに対する実験により、この理論結果を検証する。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Addressing Heterophily in Node Classification with Graph Echo State
Networks [11.52174067809364]
ノード分類のためのグラフエコー状態ネットワーク(GESN)を用いた異種グラフの課題に対処する。
GESNはグラフのための貯水池計算モデルであり、ノードの埋め込みは訓練されていないメッセージパッシング関数によって計算される。
実験の結果, 貯水池モデルでは, ほぼ完全に訓練された深層モデルに対して, より優れた精度あるいは同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-14T19:42:31Z) - OrthoReg: Improving Graph-regularized MLPs via Orthogonality
Regularization [66.30021126251725]
グラフニューラルネットワーク(GNN)は現在、グラフ構造データのモデリングにおいて支配的である。
グラフ正規化ネットワーク(GR-MLP)はグラフ構造情報をモデル重みに暗黙的に注入するが、その性能はほとんどのタスクにおいてGNNとほとんど一致しない。
GR-MLPは,最大数個の固有値が埋め込み空間を支配する現象である次元崩壊に苦しむことを示す。
次元崩壊問題を緩和する新しいGR-MLPモデルであるOrthoRegを提案する。
論文 参考訳(メタデータ) (2023-01-31T21:20:48Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、様々なタスクにうまく適用された強力な概念であることが示されている。
古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論を考察する。
論文 参考訳(メタデータ) (2022-07-12T16:57:08Z) - Implicit vs Unfolded Graph Neural Networks [29.803948965931212]
暗黙的かつ展開的なGNNは、異なる規則間で強いノード分類精度が得られることを示す。
IGNNはメモリ効率がかなり高いが、UGNNモデルはユニークで統合されたグラフアテンション機構と伝搬規則をサポートしている。
論文 参考訳(メタデータ) (2021-11-12T07:49:16Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Posterior Consistency of Semi-Supervised Regression on Graphs [14.65047105712853]
グラフベースの半教師付き回帰(SSR)は、頂点の小さな部分集合上の値(ラベル)から重み付きグラフ上の関数の値を推定する問題である。
本稿では,ラベルの雑音が小さく,基礎となるグラフ重み付けがよくクラスタ化されたノードと整合している環境で,分類の文脈におけるSSRの整合性について考察する。
重み付きグラフはグラフラプラシアンを用いてガウス先行を定義するSSRのベイズ式を示し、ラベル付きデータは可能性を定義する。
論文 参考訳(メタデータ) (2020-07-25T00:00:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。