論文の概要: Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies
- arxiv url: http://arxiv.org/abs/2003.00653v3
- Date: Sat, 12 Dec 2020 17:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:39:40.186135
- Title: Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies
- Title(参考訳): グラフ上の敵対的攻撃と防御:レビュー,ツール,実証的研究
- Authors: Wei Jin, Yaxin Li, Han Xu, Yiqi Wang, Shuiwang Ji, Charu Aggarwal and
Jiliang Tang
- Abstract要約: 敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
- 参考スコア(独自算出の注目度): 73.39668293190019
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have achieved significant performance in various
tasks. However, recent studies have shown that DNNs can be easily fooled by
small perturbation on the input, called adversarial attacks. As the extensions
of DNNs to graphs, Graph Neural Networks (GNNs) have been demonstrated to
inherit this vulnerability. Adversary can mislead GNNs to give wrong
predictions by modifying the graph structure such as manipulating a few edges.
This vulnerability has arisen tremendous concerns for adapting GNNs in
safety-critical applications and has attracted increasing research attention in
recent years. Thus, it is necessary and timely to provide a comprehensive
overview of existing graph adversarial attacks and the countermeasures. In this
survey, we categorize existing attacks and defenses, and review the
corresponding state-of-the-art methods. Furthermore, we have developed a
repository with representative algorithms
(https://github.com/DSE-MSU/DeepRobust/tree/master/deeprobust/graph). The
repository enables us to conduct empirical studies to deepen our understandings
on attacks and defenses on graphs.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は様々なタスクで大きなパフォーマンスを実現している。
しかし、最近の研究では、DNNは敵攻撃と呼ばれる入力に対する小さな摂動によって容易に騙せることが示されている。
グラフへのDNNの拡張として、グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
Adversaryは、いくつかのエッジを操作するなどのグラフ構造を変更することで、GNNに誤った予測を与えるように誤解を招く可能性がある。
この脆弱性は、安全クリティカルなアプリケーションにGNNを適用することに対する重大な懸念を引き起こし、近年研究の注目を集めている。
したがって、既存のグラフ敵攻撃と対策の包括的概要を提供する必要がある。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
さらに,代表アルゴリズム(https://github.com/DSE-MSU/DeepRobust/tree/master/deeprobust/graph)のリポジトリも開発した。
このレポジトリは、グラフ上の攻撃や防御に対する理解を深めるための実証的研究を可能にする。
関連論文リスト
- GraphMU: Repairing Robustness of Graph Neural Networks via Machine Unlearning [8.435319580412472]
グラフニューラルネットワーク(GNN)は、敵の攻撃に対して脆弱である。
本稿では,GNNのモデル修復という新しい概念を紹介する。
我々は、Graph Unlearning (GraphMU)によるグラフニューラルネットワークのロバスト性を修復する修復フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-19T12:41:15Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Toward the Analysis of Graph Neural Networks [1.0412114420493723]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ分析のための堅牢なフレームワークとして登場した。
本稿では,GNNをフィードフォワードニューラルネットワーク(Feed Forward Neural Networks:FFNN)に変換し,既存のFFNN分析を再利用することで,GNNの分析手法を提案する。
論文 参考訳(メタデータ) (2022-01-01T04:59:49Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Structack: Structure-based Adversarial Attacks on Graph Neural Networks [1.795391652194214]
攻撃者はグラフ構造にのみアクセスできるが,ノード属性に関する情報は得られない。
構造に基づく非情報攻撃は情報攻撃の性能に近づき、計算効率が良くなることを示す。
Structackは、厳密な計算制約の下で動作しながら、非常に限られた情報でGNNの性能を操作できる。
論文 参考訳(メタデータ) (2021-07-23T16:17:10Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。