論文の概要: Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies
- arxiv url: http://arxiv.org/abs/2003.00653v3
- Date: Sat, 12 Dec 2020 17:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:39:40.186135
- Title: Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies
- Title(参考訳): グラフ上の敵対的攻撃と防御:レビュー,ツール,実証的研究
- Authors: Wei Jin, Yaxin Li, Han Xu, Yiqi Wang, Shuiwang Ji, Charu Aggarwal and
Jiliang Tang
- Abstract要約: 敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
- 参考スコア(独自算出の注目度): 73.39668293190019
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have achieved significant performance in various
tasks. However, recent studies have shown that DNNs can be easily fooled by
small perturbation on the input, called adversarial attacks. As the extensions
of DNNs to graphs, Graph Neural Networks (GNNs) have been demonstrated to
inherit this vulnerability. Adversary can mislead GNNs to give wrong
predictions by modifying the graph structure such as manipulating a few edges.
This vulnerability has arisen tremendous concerns for adapting GNNs in
safety-critical applications and has attracted increasing research attention in
recent years. Thus, it is necessary and timely to provide a comprehensive
overview of existing graph adversarial attacks and the countermeasures. In this
survey, we categorize existing attacks and defenses, and review the
corresponding state-of-the-art methods. Furthermore, we have developed a
repository with representative algorithms
(https://github.com/DSE-MSU/DeepRobust/tree/master/deeprobust/graph). The
repository enables us to conduct empirical studies to deepen our understandings
on attacks and defenses on graphs.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は様々なタスクで大きなパフォーマンスを実現している。
しかし、最近の研究では、DNNは敵攻撃と呼ばれる入力に対する小さな摂動によって容易に騙せることが示されている。
グラフへのDNNの拡張として、グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
Adversaryは、いくつかのエッジを操作するなどのグラフ構造を変更することで、GNNに誤った予測を与えるように誤解を招く可能性がある。
この脆弱性は、安全クリティカルなアプリケーションにGNNを適用することに対する重大な懸念を引き起こし、近年研究の注目を集めている。
したがって、既存のグラフ敵攻撃と対策の包括的概要を提供する必要がある。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
さらに,代表アルゴリズム(https://github.com/DSE-MSU/DeepRobust/tree/master/deeprobust/graph)のリポジトリも開発した。
このレポジトリは、グラフ上の攻撃や防御に対する理解を深めるための実証的研究を可能にする。
関連論文リスト
- Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Toward the Analysis of Graph Neural Networks [1.0412114420493723]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ分析のための堅牢なフレームワークとして登場した。
本稿では,GNNをフィードフォワードニューラルネットワーク(Feed Forward Neural Networks:FFNN)に変換し,既存のFFNN分析を再利用することで,GNNの分析手法を提案する。
論文 参考訳(メタデータ) (2022-01-01T04:59:49Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Structack: Structure-based Adversarial Attacks on Graph Neural Networks [1.795391652194214]
攻撃者はグラフ構造にのみアクセスできるが,ノード属性に関する情報は得られない。
構造に基づく非情報攻撃は情報攻撃の性能に近づき、計算効率が良くなることを示す。
Structackは、厳密な計算制約の下で動作しながら、非常に限られた情報でGNNの性能を操作できる。
論文 参考訳(メタデータ) (2021-07-23T16:17:10Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。