論文の概要: Aggregation Buffer: Revisiting DropEdge with a New Parameter Block
- arxiv url: http://arxiv.org/abs/2505.20840v1
- Date: Tue, 27 May 2025 07:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.489089
- Title: Aggregation Buffer: Revisiting DropEdge with a New Parameter Block
- Title(参考訳): 集約バッファ: 新しいパラメータブロックでDropEdgeを再検討
- Authors: Dooho Lee, Myeong Kong, Sagad Hamid, Cheonwoo Lee, Jaemin Yoo,
- Abstract要約: 我々は、トレーニング中にさまざまなグラフ構造を公開するためにエッジをランダムに削除するGNN用のデータ拡張テクニックであるDropEdgeを再検討する。
我々は,多くのGNNアーキテクチャに存在する基本的制限からDropEdgeの性能が制限されていることを示す理論的解析を行った。
提案手法は任意のGNNモデルと互換性があり,複数のデータセットに対して一貫した性能向上を示す。
- 参考スコア(独自算出の注目度): 10.437971325118731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit DropEdge, a data augmentation technique for GNNs which randomly removes edges to expose diverse graph structures during training. While being a promising approach to effectively reduce overfitting on specific connections in the graph, we observe that its potential performance gain in supervised learning tasks is significantly limited. To understand why, we provide a theoretical analysis showing that the limited performance of DropEdge comes from the fundamental limitation that exists in many GNN architectures. Based on this analysis, we propose Aggregation Buffer, a parameter block specifically designed to improve the robustness of GNNs by addressing the limitation of DropEdge. Our method is compatible with any GNN model, and shows consistent performance improvements on multiple datasets. Moreover, our method effectively addresses well-known problems such as degree bias or structural disparity as a unifying solution. Code and datasets are available at https://github.com/dooho00/agg-buffer.
- Abstract(参考訳): 我々は、トレーニング中にさまざまなグラフ構造を公開するためにエッジをランダムに削除するGNN用のデータ拡張テクニックであるDropEdgeを再検討する。
グラフ内の特定の接続に対するオーバーフィッティングを効果的に削減するための有望なアプローチであるが、教師付き学習タスクにおける潜在的な性能向上は著しく制限されている。
理由を理解するために,DropEdgeの限界性能は,多くのGNNアーキテクチャに存在する基本的な限界から生じることを示す理論的解析を行った。
そこで本研究では,DropEdgeの制限に対処して,GNNの堅牢性向上を目的としたパラメータブロックAggregation Bufferを提案する。
提案手法は任意のGNNモデルと互換性があり,複数のデータセットに対して一貫した性能向上を示す。
さらに,本手法は,次数バイアスや構造格差といったよく知られた問題を統一解として効果的に解決する。
コードとデータセットはhttps://github.com/dooho00/agg-buffer.comで入手できる。
関連論文リスト
- Effects of Random Edge-Dropping on Over-Squashing in Graph Neural Networks [8.524684315458243]
遠方ノード間の感度に対するDropEdgeの負の効果を特徴付ける理論的結果を示す。
我々の発見は容易にその変種に拡張され、過度な監視にどのように影響するかを包括的に理解することが可能になる。
我々の結論は、深いGNNを訓練するために設計された様々な手法を再評価する必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2025-02-11T08:36:38Z) - Why Does Dropping Edges Usually Outperform Adding Edges in Graph Contrastive Learning? [54.44813218411879]
グラフがネットワークにどのように適合するかを定量化するために、新しいメトリック、すなわちエラー通過率(EPR)を導入する。
理論的な結論とポジティブ・インセンティブ雑音のアイデアに触発されて、我々は新しいGCLアルゴリズム、エラー・パッシングに基づくグラフコントラスト学習(EPAGCL)を提案する。
EPRから得られる重みに基づいてエッジの追加とドロップによりビューを生成する。
論文 参考訳(メタデータ) (2024-12-11T06:31:06Z) - ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks [53.41164429486268]
グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:31:39Z) - Are All Edges Necessary? A Unified Framework for Graph Purification [6.795209119198288]
グラフのすべてのエッジが機械学習モデルのトレーニングに必要ではない。
本稿では,新たな視点からグラフデータを浄化するために,エッジをドロップする手法を提案する。
論文 参考訳(メタデータ) (2022-11-09T20:28:25Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - Learning heterophilious edge to drop: A general framework for boosting
graph neural networks [19.004710957882402]
本研究は, グラフ構造を最適化することにより, ヘテロフィリの負の影響を緩和することを目的とする。
LHEと呼ばれる構造学習手法を提案する。
emphLHEによるGNNの性能改善は, ホモフィリレベルの全スペクトルにわたる複数のデータセットで実証された。
論文 参考訳(メタデータ) (2022-05-23T14:07:29Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。