論文の概要: Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks
- arxiv url: http://arxiv.org/abs/2009.14455v1
- Date: Wed, 30 Sep 2020 05:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 23:11:02.548753
- Title: Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks
- Title(参考訳): 不確実性マッチンググラフニューラルネットワークによる中毒攻撃防御
- Authors: Uday Shankar Shanthamallu, Jayaraman J. Thiagarajan and Andreas
Spanias
- Abstract要約: グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
- 参考スコア(独自算出の注目度): 43.60973654460398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs), a generalization of neural networks to
graph-structured data, are often implemented using message passes between
entities of a graph. While GNNs are effective for node classification, link
prediction and graph classification, they are vulnerable to adversarial
attacks, i.e., a small perturbation to the structure can lead to a non-trivial
performance degradation. In this work, we propose Uncertainty Matching GNN
(UM-GNN), that is aimed at improving the robustness of GNN models, particularly
against poisoning attacks to the graph structure, by leveraging epistemic
uncertainties from the message passing framework. More specifically, we propose
to build a surrogate predictor that does not directly access the graph
structure, but systematically extracts reliable knowledge from a standard GNN
through a novel uncertainty-matching strategy. Interestingly, this uncoupling
makes UM-GNN immune to evasion attacks by design, and achieves significantly
improved robustness against poisoning attacks. Using empirical studies with
standard benchmarks and a suite of global and target attacks, we demonstrate
the effectiveness of UM-GNN, when compared to existing baselines including the
state-of-the-art robust GCN.
- Abstract(参考訳): グラフ構造化データへのニューラルネットワークの一般化であるグラフニューラルネットワーク(GNN)は、しばしばグラフのエンティティ間のメッセージパスを使用して実装される。
gnnはノードの分類、リンクの予測、グラフの分類に有効であるが、敵の攻撃に弱い。
本稿では,メッセージパッシングフレームワークの認識的不確実性を利用して,gnnモデルのロバスト性,特にグラフ構造への中毒攻撃に対するロバスト性を改善することを目的とした,不確実性マッチングgnn(um-gnn)を提案する。
より具体的には、グラフ構造に直接アクセスせず、新しい不確実性マッチング戦略を通じて標準gnnから信頼できる知識を体系的に抽出するサーロゲート予測器を構築することを提案する。
興味深いことに、このアンカップリングはUM-GNNを設計によって回避攻撃に免疫させ、毒殺攻撃に対する堅牢性を大幅に向上させる。
標準ベンチマークとグローバルおよびターゲット攻撃のスイートを用いた実証的研究を用いて、最先端の堅牢GCNを含む既存のベースラインと比較した場合、UM-GNNの有効性を実証する。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Explainable AI Security: Exploring Robustness of Graph Neural Networks to Adversarial Attacks [14.89001880258583]
グラフニューラルネットワーク(GNN)は非常に成功したが、最近の研究では、GNNは敵の攻撃に弱いことが示されている。
本稿では,グラフデータパターン,モデル固有因子,および敵対例の転送可能性を考慮することで,GNNの対角的ロバスト性について検討する。
この作業は、GNNの脆弱性を照らし、堅牢なGNNを設計するための多くの有望な道を開く。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。