論文の概要: Adversarial Immunization for Certifiable Robustness on Graphs
- arxiv url: http://arxiv.org/abs/2007.09647v5
- Date: Wed, 25 Aug 2021 08:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:07:44.402986
- Title: Adversarial Immunization for Certifiable Robustness on Graphs
- Title(参考訳): グラフ上の認証ロバスト性に対する対人免疫
- Authors: Shuchang Tao, Huawei Shen, Qi Cao, Liang Hou, Xueqi Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)は、他のディープラーニングモデルと同様、敵攻撃に対して脆弱である。
本研究では, グラフ対免疫問題,すなわち, 接続あるいは非接続の安価なノード対をワクチン接種することで, 許容可能な攻撃に対するグラフの堅牢性を向上させることを提案する。
- 参考スコア(独自算出の注目度): 47.957807368630995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving strong performance in semi-supervised node classification
task, graph neural networks (GNNs) are vulnerable to adversarial attacks,
similar to other deep learning models. Existing researches focus on developing
either robust GNN models or attack detection methods against adversarial
attacks on graphs. However, little research attention is paid to the potential
and practice of immunization to adversarial attacks on graphs. In this paper,
we propose and formulate the graph adversarial immunization problem, i.e.,
vaccinating an affordable fraction of node pairs, connected or unconnected, to
improve the certifiable robustness of graph against any admissible adversarial
attack. We further propose an effective algorithm, called AdvImmune, which
optimizes with meta-gradient in a discrete way to circumvent the
computationally expensive combinatorial optimization when solving the
adversarial immunization problem. Experiments are conducted on two citation
networks and one social network. Experimental results demonstrate that the
proposed AdvImmune method remarkably improves the ratio of robust nodes by 12%,
42%, 65%, with an affordable immune budget of only 5% edges.
- Abstract(参考訳): 半教師付きノード分類タスクの性能は高いが、グラフニューラルネットワーク(gnn)は他のディープラーニングモデルと同様、敵対的攻撃に弱い。
既存の研究は、グラフ上の敵対的攻撃に対する堅牢なgnnモデルまたは攻撃検出手法の開発に焦点を当てている。
しかし、グラフに対する敵対的攻撃に対する免疫の可能性や実践にはほとんど研究の注意が払われていない。
本稿では, グラフ対免疫問題, すなわち, 接続あるいは非接続の安価なノード対を接種し, 許容可能な攻撃に対するグラフの堅牢性を改善することを提案する。
さらに, 対向免疫問題の解法において, 計算コストのかかる組合せ最適化を回避するために, メタグラディエントを離散的に最適化するアルゴリズムAdvImmuneを提案する。
2つの引用ネットワークと1つのソーシャルネットワークで実験を行う。
実験の結果,AdvImmune法は,比較的手頃な免疫予算を5%に抑えつつ,ロバストノードの比率を12%,42%,65%向上させることがわかった。
関連論文リスト
- Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Graph Adversarial Immunization for Certifiable Robustness [63.58739705845775]
グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は、敵の訓練やモデル修正の開発に重点を置いている。
本稿では,グラフ構造の一部を接種するグラフ対人免疫法を提案し,定式化する。
論文 参考訳(メタデータ) (2023-02-16T03:18:43Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。