論文の概要: Spectral Adversarial Training for Robust Graph Neural Network
- arxiv url: http://arxiv.org/abs/2211.10896v1
- Date: Sun, 20 Nov 2022 07:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:18:39.776273
- Title: Spectral Adversarial Training for Robust Graph Neural Network
- Title(参考訳): ロバストグラフニューラルネットワークのためのスペクトル対向学習
- Authors: Jintang Li, Jiaying Peng, Liang Chen, Zibin Zheng, Tingting Liang,
Qing Ling
- Abstract要約: グラフニューラルネットワーク(GNN)は、わずかながら逆向きに設計された摂動に対して脆弱である。
逆行訓練(Adversarial Training,AT)は、逆行的な摂動トレーニングサンプルを用いて頑健なモデルを学ぶための成功例である。
本稿では,GNNの簡易かつ効果的な対人訓練手法であるスペクトル対人訓練(SAT)を提案する。
- 参考スコア(独自算出の注目度): 36.26575133994436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies demonstrate that Graph Neural Networks (GNNs) are vulnerable
to slight but adversarially designed perturbations, known as adversarial
examples. To address this issue, robust training methods against adversarial
examples have received considerable attention in the literature.
\emph{Adversarial Training (AT)} is a successful approach to learning a robust
model using adversarially perturbed training samples. Existing AT methods on
GNNs typically construct adversarial perturbations in terms of graph structures
or node features. However, they are less effective and fraught with challenges
on graph data due to the discreteness of graph structure and the relationships
between connected examples. In this work, we seek to address these challenges
and propose Spectral Adversarial Training (SAT), a simple yet effective
adversarial training approach for GNNs. SAT first adopts a low-rank
approximation of the graph structure based on spectral decomposition, and then
constructs adversarial perturbations in the spectral domain rather than
directly manipulating the original graph structure. To investigate its
effectiveness, we employ SAT on three widely used GNNs. Experimental results on
four public graph datasets demonstrate that SAT significantly improves the
robustness of GNNs against adversarial attacks without sacrificing
classification accuracy and training efficiency.
- Abstract(参考訳): 最近の研究では、グラフニューラルネットワーク(GNN)は、わずかながら逆向きに設計された摂動に弱いことが示されている。
この問題に対処するため,敵対的事例に対する頑健な訓練手法が文献で注目されている。
emph{adversarial training (at)"は,逆摂動トレーニングサンプルを用いたロバストモデル学習において,成功したアプローチである。
GNN上の既存のAT手法は、グラフ構造やノードの特徴の観点から逆の摂動を構成するのが一般的である。
しかし、グラフ構造の離散性と連結例間の関係により、グラフデータに対する課題に悩まされ、効果は低い。
本研究は,これらの課題に対処し,GNNのための単純かつ効果的な対人訓練手法である分光対人訓練(SAT)を提案する。
SATはまず、スペクトル分解に基づくグラフ構造の低ランク近似を採用し、その後、元のグラフ構造を直接操作するのではなく、スペクトル領域における逆摂動を構成する。
その有効性を調べるために、広く使われている3つのGNNにSATを用いる。
4つの公開グラフデータセットによる実験結果から、SATは分類精度と訓練効率を犠牲にすることなく、GNNの敵攻撃に対する堅牢性を大幅に向上することが示された。
関連論文リスト
- Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Robust Subgraph Learning by Monitoring Early Training Representations [5.524804393257921]
グラフニューラルネットワーク(GNN)は、グラフ学習やノード分類タスクにおける卓越したパフォーマンスに対して、大きな注目を集めている。
敵攻撃、特に感受性のあるノードによる攻撃に対する脆弱性は、意思決定において課題となる。
本稿では,SHERD(Subgraph Learning Hale through Early Training Representation Distances)を導入し,グラフ入力の性能と対角的堅牢性に対処する。
論文 参考訳(メタデータ) (2024-03-14T22:25:37Z) - A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Exploring High-Order Structure for Robust Graph Structure Learning [33.62223306095631]
グラフニューラルネットワーク(GNN)は、敵の攻撃に対して脆弱である。すなわち、知覚不能な構造摂動は、GNNを騙して誤った予測をすることができる。
本稿では,特徴の滑らかさの観点から,グラフに対する逆攻撃を解析する。
本稿では,高次構造情報をグラフ構造学習に組み込む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:03:08Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。