論文の概要: Robustness of Graph Neural Networks at Scale
- arxiv url: http://arxiv.org/abs/2110.14038v4
- Date: Sun, 30 Apr 2023 08:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 22:00:49.217860
- Title: Robustness of Graph Neural Networks at Scale
- Title(参考訳): 大規模グラフニューラルネットワークのロバスト性
- Authors: Simon Geisler, Tobias Schmidt, Hakan \c{S}irin, Daniel Z\"ugner,
Aleksandar Bojchevski and Stephan G\"unnemann
- Abstract要約: 我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
- 参考スコア(独自算出の注目度): 63.45769413975601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are increasingly important given their
popularity and the diversity of applications. Yet, existing studies of their
vulnerability to adversarial attacks rely on relatively small graphs. We
address this gap and study how to attack and defend GNNs at scale. We propose
two sparsity-aware first-order optimization attacks that maintain an efficient
representation despite optimizing over a number of parameters which is
quadratic in the number of nodes. We show that common surrogate losses are not
well-suited for global attacks on GNNs. Our alternatives can double the attack
strength. Moreover, to improve GNNs' reliability we design a robust aggregation
function, Soft Median, resulting in an effective defense at all scales. We
evaluate our attacks and defense with standard GNNs on graphs more than 100
times larger compared to previous work. We even scale one order of magnitude
further by extending our techniques to a scalable GNN.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はその人気とアプリケーションの多様性から、ますます重要になっている。
しかし、敵攻撃に対する脆弱性に関する既存の研究は、比較的小さなグラフに依存している。
このギャップに対処し、大規模にGNNを攻撃し、防御する方法を研究する。
本稿では,ノード数で2次となるパラメータを最適化しながら,効率の良い表現を維持する2つのスポーサリティ対応一階最適化攻撃を提案する。
一般的な代理損失はgnnに対する世界的な攻撃には適していない。
我々の代替手段は 攻撃力を2倍にできる
さらに,GNNの信頼性を向上させるために,頑健な集約機能であるSoft Medianを設計した。
我々は,従来の研究の100倍以上のグラフ上の標準GNNによる攻撃と防御を評価した。
技術を拡張可能なGNNに拡張することで、さらに1桁のスケールを行ないます。
関連論文リスト
- GARNET: Reduced-Rank Topology Learning for Robust and Scalable Graph
Neural Networks [15.448462928073635]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータでの学習を含むさまざまなアプリケーションにますます導入されている。
近年の研究では、GNNはグラフ敵攻撃に弱いことが示されている。
本稿では,GNNモデルの対角的ロバスト性を高めるため,スケーラブルなスペクトル法であるGARNETを提案する。
論文 参考訳(メタデータ) (2022-01-30T06:32:44Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Efficient, Direct, and Restricted Black-Box Graph Evasion Attacks to
Any-Layer Graph Neural Networks via Influence Function [62.89388227354517]
グラフデータから学習する主流手法であるグラフニューラルネットワーク(GNN)は、グラフ回避攻撃に対して脆弱である。
既存の作業には、1)2層GNNを直接攻撃すること、2)非効率であること、3)GNNモデルパラメータの完全あるいは一部を知る必要があること、の2つの欠点の少なくとも1つがある。
本報告では,エフェクトベースの非効率,直接的,制限されたブラックボックス回避攻撃を,幻影層GNNに対して提案する。
論文 参考訳(メタデータ) (2020-09-01T03:24:51Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。