論文の概要: Improving Robustness of Graph Neural Networks with Heterophily-Inspired
Designs
- arxiv url: http://arxiv.org/abs/2106.07767v1
- Date: Mon, 14 Jun 2021 21:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:29:14.005644
- Title: Improving Robustness of Graph Neural Networks with Heterophily-Inspired
Designs
- Title(参考訳): ヘテロフィリインスパイアされた設計によるグラフニューラルネットワークのロバスト性向上
- Authors: Jiong Zhu, Junchen Jin, Michael T. Schaub, Danai Koutra
- Abstract要約: 多くのグラフニューラルネットワーク(GNN)は、敵の攻撃に敏感であり、グラフ構造が意図的に乱れた場合、性能損失を被る可能性がある。
ノード特徴がホモフィリで、衝撃的な構造的攻撃が常にヘテロフィリのレベルを上昇させるという標準的なシナリオを示す。
我々は、(i)エゴエンベディングと(ii)アグリゲータの分離したアグリゲータ、および(ii)アグリゲーションの範囲を小さくすることで、GNNのロバスト性を大幅に向上させる2つの設計を提案する。
- 参考スコア(独自算出の注目度): 18.524164548051417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have exposed that many graph neural networks (GNNs) are
sensitive to adversarial attacks, and can suffer from performance loss if the
graph structure is intentionally perturbed. A different line of research has
shown that many GNN architectures implicitly assume that the underlying graph
displays homophily, i.e., connected nodes are more likely to have similar
features and class labels, and perform poorly if this assumption is not
fulfilled. In this work, we formalize the relation between these two seemingly
different issues. We theoretically show that in the standard scenario in which
node features exhibit homophily, impactful structural attacks always lead to
increased levels of heterophily. Then, inspired by GNN architectures that
target heterophily, we present two designs -- (i) separate aggregators for ego-
and neighbor-embeddings, and (ii) a reduced scope of aggregation -- that can
significantly improve the robustness of GNNs. Our extensive empirical
evaluations show that GNNs featuring merely these two designs can achieve
significantly improved robustness compared to the best-performing unvaccinated
model with 24.99% gain in average performance under targeted attacks, while
having smaller computational overhead than existing defense mechanisms.
Furthermore, these designs can be readily combined with explicit defense
mechanisms to yield state-of-the-art robustness with up to 18.33% increase in
performance under attacks compared to the best-performing vaccinated model.
- Abstract(参考訳): 近年の研究では、多くのグラフニューラルネットワーク(GNN)が敵の攻撃に敏感であり、グラフ構造が意図的に乱れた場合、性能損失を被る可能性があることが明らかになっている。
別の研究の行では、多くのgnnアーキテクチャが、下位のグラフが相同性(homophily)を示すと暗黙的に仮定していることが示されている。
本研究では, 一見異なる2つの課題の関係を定式化する。
理論的には、ノードの特徴が相同性を示す標準的なシナリオでは、影響のある構造的攻撃は常にヘテロフィリーのレベルを増加させる。
そして、ヘテロフィリーをターゲットとするGNNアーキテクチャにインスパイアされた、2つの設計 -- (i) 隣人埋め込みのための別々のアグリゲータ、(ii) 集約の範囲を縮小することで、GNNの堅牢性を大幅に向上させることができる。
これらの2つの設計を特徴とするGNNは、目標攻撃時の平均性能が24.99%向上し、既存の防御機構よりも計算オーバーヘッドが小さい、最も優れた非ワクチンモデルと比較して、ロバスト性を大幅に向上できることを示す。
さらに、これらの設計は明示的な防御機構と組み合わされ、最も優れた予防接種モデルと比較して18.33%の性能向上を達成できる。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Demystifying Structural Disparity in Graph Neural Networks: Can One Size
Fit All? [61.35457647107439]
ほとんどの実世界のホモフィルグラフとヘテロフィルグラフは、ホモフィルグラフとヘテロフィルグラフの両方の構造パターンの混合ノードから構成される。
ノード分類におけるグラフニューラルネットワーク (GNN) は, 一般にホモ親和性ノード上で良好に機能することを示す。
次に、GNNに対する厳密で非I.d PAC-Bayesian一般化を提案し、性能格差の理由を明らかにした。
論文 参考訳(メタデータ) (2023-06-02T07:46:20Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Understanding Structural Vulnerability in Graph Convolutional Networks [27.602802961213236]
グラフ畳み込みネットワーク(GCN)は、グラフ構造に対する敵攻撃に対して脆弱である。
構造逆例はGCNの非ロバストアグリゲーションスキームに起因していると考えられる。
その結果,GCN の構造的攻撃に対するロバスト性は著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-13T15:07:44Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Beyond Homophily in Graph Neural Networks: Current Limitations and
Effective Designs [28.77753005139331]
半教師付きノード分類タスクにおけるグラフニューラルネットワークのヘテロフィリーまたは低ホモフィリー下での表現力について検討する。
多くの人気のあるGNNは、この設定を一般化することができず、グラフ構造を無視したモデルよりも優れています。
ヘテロフィリーの下でのグラフ構造からの学習を促進する重要な設計の集合を同定する。
論文 参考訳(メタデータ) (2020-06-20T02:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。