論文の概要: EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2205.13892v1
- Date: Fri, 27 May 2022 10:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 12:51:15.714999
- Title: EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks
- Title(参考訳): EvenNet: グラフニューラルネットワークのロバスト性を改善するOdd-Hop Neighborsの無視
- Authors: Runlin Lei, Zhen Wang, Yaliang Li, Bolin Ding, Zhewei Wei
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
- 参考スコア(独自算出の注目度): 51.42338058718487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have received extensive research attention for
their promising performance in graph machine learning. Despite their
extraordinary predictive accuracy, existing approaches, such as GCN and GPRGNN,
are not robust in the face of homophily changes on test graphs, rendering these
models vulnerable to graph structural attacks and with limited capacity in
generalizing to graphs of varied homophily levels. Although many methods have
been proposed to improve the robustness of GNN models, most of these techniques
are restricted to the spatial domain and employ complicated defense mechanisms,
such as learning new graph structures or calculating edge attentions. In this
paper, we study the problem of designing simple and robust GNN models in the
spectral domain. We propose EvenNet, a spectral GNN corresponding to an
even-polynomial graph filter. Based on our theoretical analysis in both spatial
and spectral domains, we demonstrate that EvenNet outperforms full-order models
in generalizing across homophilic and heterophilic graphs, implying that
ignoring odd-hop neighbors improves the robustness of GNNs. We conduct
experiments on both synthetic and real-world datasets to demonstrate the
effectiveness of EvenNet. Notably, EvenNet outperforms existing defense models
against structural attacks without introducing additional computational costs
and maintains competitiveness in traditional node classification tasks on
homophilic and heterophilic graphs.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、グラフ機械学習における有望なパフォーマンスで広く研究されている。
異常な予測精度にもかかわらず、GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面し、これらのモデルをグラフ構造攻撃に弱いものにし、様々なホモフィリレベルのグラフに一般化する能力に制限がある。
gnnモデルのロバスト性を改善するために多くの手法が提案されているが、これらの手法のほとんどは空間領域に限定され、新しいグラフ構造の学習やエッジアテンションの計算といった複雑な防御機構を採用している。
本稿では,スペクトル領域における単純かつ堅牢なGNNモデルの設計問題について検討する。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
空間領域とスペクトル領域の両方における我々の理論的解析に基づいて、sevennet はホモ親和グラフとヘテロ親和グラフをまたいで一般化する全次モデルよりも優れており、オッドホップ近傍を無視することで gnn のロバスト性が向上することを示している。
EvenNetの有効性を実証するために、合成データセットと実世界のデータセットの両方で実験を行った。
注目すべきは、EvenNetは計算コストを増すことなく既存の構造的攻撃に対する防御モデルより優れており、ホモフィルグラフとヘテロフィルグラフ上の従来のノード分類タスクの競争力を維持することである。
関連論文リスト
- Tackling Oversmoothing in GNN via Graph Sparsification: A Truss-based Approach [1.4854797901022863]
本稿では,グラフの高密度領域からエッジを抽出する新鮮で柔軟なトラスグラフスペーシフィケーションモデルを提案する。
次に、GIN、SAGPool、GMT、DiffPool、MinCutPool、HGP-SL、DMonPool、AdamGNNといった最先端のベースラインGNNとプールモデルでスパーシフィケーションモデルを利用する。
論文 参考訳(メタデータ) (2024-07-16T17:21:36Z) - Design Your Own Universe: A Physics-Informed Agnostic Method for Enhancing Graph Neural Networks [34.16727363891593]
グラフニューラルネットワーク(GNN)のためのモデルに依存しない拡張フレームワークを提案する。
このフレームワークは、追加ノードを導入し、負の重み付けと負の重み付けの両方で接続を切り替えることでグラフ構造を豊かにする。
提案手法によって強化されたGNNが,過度にスムースな問題を効果的に回避し,過度なスキャッシングに対する堅牢性を示すことを理論的に検証する。
好中球グラフ,ヘテロ親和性グラフ,長期グラフデータセットのベンチマークにおける実証的検証により,本手法により強化されたGNNが元のグラフよりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2024-01-26T00:47:43Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Understanding and Improving Deep Graph Neural Networks: A Probabilistic
Graphical Model Perspective [22.82625446308785]
グラフニューラルネットワーク(GNN)の理解のための新しい視点を提案する。
本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。
我々はより強力なGNN:結合グラフニューラルネットワーク(CoGNet)を設計する。
論文 参考訳(メタデータ) (2023-01-25T12:02:12Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - GARNET: Reduced-Rank Topology Learning for Robust and Scalable Graph
Neural Networks [15.448462928073635]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータでの学習を含むさまざまなアプリケーションにますます導入されている。
近年の研究では、GNNはグラフ敵攻撃に弱いことが示されている。
本稿では,GNNモデルの対角的ロバスト性を高めるため,スケーラブルなスペクトル法であるGARNETを提案する。
論文 参考訳(メタデータ) (2022-01-30T06:32:44Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。