論文の概要: Reliable Graph Neural Networks via Robust Aggregation
- arxiv url: http://arxiv.org/abs/2010.15651v1
- Date: Thu, 29 Oct 2020 14:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:19:27.736951
- Title: Reliable Graph Neural Networks via Robust Aggregation
- Title(参考訳): ロバスト集約による信頼グラフニューラルネットワーク
- Authors: Simon Geisler, Daniel Z\"ugner, Stephan G\"unnemann
- Abstract要約: グラフ構造を標的とした摂動はグラフニューラルネットワーク(GNN)の性能低下に極めて有効であることが証明されている。
敵の訓練のような伝統的な防御は、堅牢性を改善することができないように思われる。
この研究は、対向的に注入されたエッジが、ノードの近傍集約関数に追加のサンプルとして、効果的に見ることができるという観察によって動機付けられている。
- 参考スコア(独自算出の注目度): 1.7188280334580197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perturbations targeting the graph structure have proven to be extremely
effective in reducing the performance of Graph Neural Networks (GNNs), and
traditional defenses such as adversarial training do not seem to be able to
improve robustness. This work is motivated by the observation that
adversarially injected edges effectively can be viewed as additional samples to
a node's neighborhood aggregation function, which results in distorted
aggregations accumulating over the layers. Conventional GNN aggregation
functions, such as a sum or mean, can be distorted arbitrarily by a single
outlier. We propose a robust aggregation function motivated by the field of
robust statistics. Our approach exhibits the largest possible breakdown point
of 0.5, which means that the bias of the aggregation is bounded as long as the
fraction of adversarial edges of a node is less than 50\%. Our novel
aggregation function, Soft Medoid, is a fully differentiable generalization of
the Medoid and therefore lends itself well for end-to-end deep learning.
Equipping a GNN with our aggregation improves the robustness with respect to
structure perturbations on Cora ML by a factor of 3 (and 5.5 on Citeseer) and
by a factor of 8 for low-degree nodes.
- Abstract(参考訳): グラフ構造を対象とする摂動は、グラフニューラルネットワーク(gnn)のパフォーマンスを低下させる上で非常に効果的であることが証明されている。
この研究は、対向的に注入されたエッジをノードの近傍集約関数に追加のサンプルと見なすことができ、その結果、層上に蓄積された歪んだアグリゲーションが得られるという観察によって動機付けられている。
和や平均などの従来のGNNアグリゲーション関数は、1つの外れ値によって任意に歪めることができる。
本稿では,ロバスト統計の分野に動機づけられたロバスト集約関数を提案する。
提案手法は0.5の最大分解点を示し, ノードの対向エッジの分画が 50 % 未満である限り, 凝集のバイアスは有界であることを示す。
新しい集約関数であるsoft medoidは、medoidの完全に微分可能な一般化であり、エンドツーエンドのディープラーニングに適しています。
GNNをアグリゲーションで取得すると、Cora ML上の構造摂動に関して3(およびCiteseer上の5.5)および低次ノードに対する8)の因子によるロバスト性が向上する。
関連論文リスト
- Sparse Decomposition of Graph Neural Networks [20.768412002413843]
本稿では,集約中に含まれるノード数を削減する手法を提案する。
線形変換された特徴の重み付け和を用いてノード表現の近似を学習し、スパース分解によりこれを実現できる。
提案手法は推論高速化のために設計された他のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-25T17:52:16Z) - Robust Node Representation Learning via Graph Variational Diffusion
Networks [7.335425547621226]
近年,グラフ構造における摂動により,GNNに基づくノード表現学習が著しく劣化する可能性が示唆されている。
摂動の存在下で頑健なノード表現を学習するために、GNNを保護するための様々な研究が提案されている。
本稿では,ガウス雑音を効果的に制御し,摂動グラフ上のロバスト性を保護する新しいノードエンコーダであるグラフ変分拡散ネットワーク(GVDN)を提案する。
論文 参考訳(メタデータ) (2023-12-18T03:18:53Z) - Efficient Link Prediction via GNN Layers Induced by Negative Sampling [92.05291395292537]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
まず、Emphnode-wiseアーキテクチャは各ノードの個別の埋め込みをプリコンパイルし、後に単純なデコーダで結合して予測を行う。
第二に、エンフェッジワイド法は、ペアワイド関係の表現を強化するために、エッジ固有のサブグラフ埋め込みの形成に依存している。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - SIGMA: Similarity-based Efficient Global Aggregation for Heterophilous Graph Neural Networks [12.302311645194775]
グラフニューラルネットワーク(GNN)は、グラフ学習において大きな成功を収めているが、ヘテロフィリーに会うとパフォーマンス損失に悩まされる。
SIGMAは,SimRankの構造的類似度測定を統合した,効率的なグローバルヘテロ親和性GNNアグリゲーションである。
論文 参考訳(メタデータ) (2023-05-17T05:35:49Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Learnt Sparsification for Interpretable Graph Neural Networks [5.527927312898106]
不要な隣人を除去することにより、基礎となるグラフを明示的にスパース化するための、Kedgeと呼ばれる新しい手法を提案する。
Kedgeは、任意のGNNでトレーニングされたモジュール方式でエッジマスクを学習することで、勾配ベースの最適化を実現する。
我々は,GNN層の増加に伴うタスク性能の維持により,深いGNNにおける過度なスムース現象に対して,Kedgeが効果的に対処可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:04:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。