論文の概要: Graph Universal Adversarial Attacks: A Few Bad Actors Ruin Graph
Learning Models
- arxiv url: http://arxiv.org/abs/2002.04784v2
- Date: Wed, 23 Jun 2021 03:41:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:37:33.904236
- Title: Graph Universal Adversarial Attacks: A Few Bad Actors Ruin Graph
Learning Models
- Title(参考訳): graph universal adversarial attack: 悪役がグラフ学習モデルを台無しにする
- Authors: Xiao Zang, Yi Xie, Jie Chen, Bo Yuan
- Abstract要約: グラフ構造および/またはノード特徴の逆摂動がモデル性能を著しく低下させる可能性があることを示す。
我々は、悪いアクターがノードをアンカーし、それらを識別するためにGUAと呼ばれるアルゴリズムを提案する。
2708ノードを含むデータセット Cora では、6つのアンカーノードがGCNや他の3つのモデルに対して80%以上の攻撃成功率をもたらす。
- 参考スコア(独自算出の注目度): 13.476196677401376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks, while generalize well, are known to be sensitive to
small adversarial perturbations. This phenomenon poses severe security threat
and calls for in-depth investigation of the robustness of deep learning models.
With the emergence of neural networks for graph structured data, similar
investigations are urged to understand their robustness. It has been found that
adversarially perturbing the graph structure and/or node features may result in
a significant degradation of the model performance. In this work, we show from
a different angle that such fragility similarly occurs if the graph contains a
few bad-actor nodes, which compromise a trained graph neural network through
flipping the connections to any targeted victim. Worse, the bad actors found
for one graph model severely compromise other models as well. We call the bad
actors ``anchor nodes'' and propose an algorithm, named GUA, to identify them.
Thorough empirical investigations suggest an interesting finding that the
anchor nodes often belong to the same class; and they also corroborate the
intuitive trade-off between the number of anchor nodes and the attack success
rate. For the dataset Cora which contains 2708 nodes, as few as six anchor
nodes will result in an attack success rate higher than 80\% for GCN and other
three models.
- Abstract(参考訳): ディープニューラルネットワークは一般化されているものの、小さな対向摂動に敏感であることが知られている。
この現象は深刻なセキュリティの脅威をもたらし、ディープラーニングモデルの堅牢性について深く調査する必要がある。
グラフ構造化データのためのニューラルネットワークが出現すると、同様の調査が彼らの堅牢性を理解するよう促される。
グラフ構造やノードの特徴を逆向きに摂動すると、モデルの性能が著しく低下する可能性があることが判明した。
本研究では,対象とする被害者との接続を反転させることで,訓練済みのグラフニューラルネットワークを侵害する悪役ノードをグラフに含む場合,このような脆弱性が発生することを異なる角度から示す。
さらに悪いことに、あるグラフモデルで見つかった悪いアクターは、他のモデルもひどく侵害している。
我々はバッドアクタを ‘アンカーノード' と呼び、それらを識別するために gua というアルゴリズムを提案する。
徹底的な実証調査は、アンカーノードがしばしば同じクラスに属することの興味深い発見であり、アンカーノードの数と攻撃成功率の間の直感的なトレードオフの相関も示している。
2708ノードを含むデータセットCoraでは、6つのアンカーノードがGCNや他の3モデルの攻撃成功率を80%以上上回る結果となる。
関連論文リスト
- Universally Robust Graph Neural Networks by Preserving Neighbor
Similarity [5.660584039688214]
NSPGNNと呼ばれる新しい頑健なモデルを導入し、隣接する類似性誘導伝搬を監督するために、二重kNNグラフパイプラインを組み込んだ。
ホモ親和グラフとヘテロ親和グラフの両方の実験は、最先端の手法と比較してNSPGNNの普遍的堅牢性を検証する。
論文 参考訳(メタデータ) (2024-01-18T06:57:29Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。