論文の概要: ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2403.09171v2
- Date: Wed, 14 Aug 2024 09:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 18:06:42.074252
- Title: ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks
- Title(参考訳): ADEdgeDrop:ロバストグラフニューラルネットワークの逆エッジドロップ
- Authors: Zhaoliang Chen, Zhihao Wu, Ylli Sadikaj, Claudia Plant, Hong-Ning Dai, Shiping Wang, Yiu-Ming Cheung, Wenzhong Guo,
- Abstract要約: グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
- 参考スコア(独自算出の注目度): 53.41164429486268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although Graph Neural Networks (GNNs) have exhibited the powerful ability to gather graph-structured information from neighborhood nodes via various message-passing mechanisms, the performance of GNNs is limited by poor generalization and fragile robustness caused by noisy and redundant graph data. As a prominent solution, Graph Augmentation Learning (GAL) has recently received increasing attention. Among prior GAL approaches, edge-dropping methods that randomly remove edges from a graph during training are effective techniques to improve the robustness of GNNs. However, randomly dropping edges often results in bypassing critical edges, consequently weakening the effectiveness of message passing. In this paper, we propose a novel adversarial edge-dropping method (ADEdgeDrop) that leverages an adversarial edge predictor guiding the removal of edges, which can be flexibly incorporated into diverse GNN backbones. Employing an adversarial training framework, the edge predictor utilizes the line graph transformed from the original graph to estimate the edges to be dropped, which improves the interpretability of the edge-dropping method. The proposed ADEdgeDrop is optimized alternately by stochastic gradient descent and projected gradient descent. Comprehensive experiments on six graph benchmark datasets demonstrate that the proposed ADEdgeDrop outperforms state-of-the-art baselines across various GNN backbones, demonstrating improved generalization and robustness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,様々なメッセージパッシング機構を通じて周辺ノードからグラフ構造化情報を収集する強力な能力を示したが,ノイズや冗長なグラフデータによって生じる一般化の貧弱さと脆弱な堅牢性により,GNNの性能は制限されている。
目立った解決策として、グラフ強化学習(GAL)が最近注目を集めている。
従来のGAL手法の中で、学習中にグラフからエッジをランダムに除去するエッジドロップ法は、GNNの堅牢性を改善する効果的な手法である。
しかし、ランダムにエッジを落とすと、しばしばクリティカルエッジをバイパスし、メッセージパッシングの有効性を弱める。
本稿では,異なるGNNバックボーンに柔軟に組み込むことができる,エッジの除去を導く対向エッジ予測器を活用する新しい対向エッジドロップ法(ADEdgeDrop)を提案する。
エッジ予測器は、逆トレーニングフレームワークを用いて、元のグラフから変換された線グラフを利用して、ドロップするエッジを推定し、エッジドロップ方式の解釈性を向上させる。
提案したADEdgeDropは,確率勾配勾配と投影勾配勾配とを交互に最適化する。
6つのグラフベンチマークデータセットに関する総合的な実験により、提案されたADEdgeDropは、様々なGNNバックボーンで最先端のベースラインよりも優れ、一般化とロバスト性の向上が示されている。
関連論文リスト
- DropEdge not Foolproof: Effective Augmentation Method for Signed Graph Neural Networks [11.809853547011704]
本論文では, 有意または負の符号でマークされたエッジを用いて, 親和性や敵意関係をモデル化した有意グラフについて論じる。
著者らはこれらの問題に対処するためにデータ拡張(DA)技術を提案する。
彼らはSigned Graph Augmentation (SGA)フレームワークを紹介した。
論文 参考訳(メタデータ) (2024-09-29T09:13:23Z) - Refined Edge Usage of Graph Neural Networks for Edge Prediction [51.06557652109059]
We propose a novel edge prediction paradigm named Edge-aware Message PassIng neuRal nEtworks (EMPIRE)。
まず,各エッジをトポロジや監督のためにのみ使用するエッジ分割手法を提案する。
監視エッジで接続されたペアと接続されていないペアの差を強調するために、さらにメッセージを重み付けして、その差を反映できる相対的なペアを強調します。
論文 参考訳(メタデータ) (2022-12-25T23:19:56Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - DiP-GNN: Discriminative Pre-Training of Graph Neural Networks [49.19824331568713]
GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
論文 参考訳(メタデータ) (2022-09-15T17:41:50Z) - EEGNN: Edge Enhanced Graph Neural Networks [1.0246596695310175]
そこで本研究では,このような劣化した性能現象の新たな説明法を提案する。
このような単純化は、グラフの構造情報を取得するためにメッセージパッシング層の可能性を減らすことができることを示す。
EEGNNは、提案したディリクレ混合ポアソングラフモデルから抽出した構造情報を用いて、様々なディープメッセージパスGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-08-12T15:24:55Z) - SoftEdge: Regularizing Graph Classification with Random Soft Edges [18.165965620873745]
グラフデータ拡張はグラフニューラルネットワーク(GNN)の正規化において重要な役割を果たす
単純なエッジとノード操作は、同じ構造を持つグラフや、GNNをメッセージパッシングするための区別できない構造を生成することができる。
我々は,任意のグラフのエッジの一部にランダムな重みを割り当てて,そのグラフ上の動的近傍を構築するSoftEdgeを提案する。
論文 参考訳(メタデータ) (2022-04-21T20:12:36Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。