論文の概要: Adversarial Immunization for Certifiable Robustness on Graphs
- arxiv url: http://arxiv.org/abs/2007.09647v5
- Date: Wed, 25 Aug 2021 08:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:07:44.402986
- Title: Adversarial Immunization for Certifiable Robustness on Graphs
- Title(参考訳): グラフ上の認証ロバスト性に対する対人免疫
- Authors: Shuchang Tao, Huawei Shen, Qi Cao, Liang Hou, Xueqi Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)は、他のディープラーニングモデルと同様、敵攻撃に対して脆弱である。
本研究では, グラフ対免疫問題,すなわち, 接続あるいは非接続の安価なノード対をワクチン接種することで, 許容可能な攻撃に対するグラフの堅牢性を向上させることを提案する。
- 参考スコア(独自算出の注目度): 47.957807368630995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving strong performance in semi-supervised node classification
task, graph neural networks (GNNs) are vulnerable to adversarial attacks,
similar to other deep learning models. Existing researches focus on developing
either robust GNN models or attack detection methods against adversarial
attacks on graphs. However, little research attention is paid to the potential
and practice of immunization to adversarial attacks on graphs. In this paper,
we propose and formulate the graph adversarial immunization problem, i.e.,
vaccinating an affordable fraction of node pairs, connected or unconnected, to
improve the certifiable robustness of graph against any admissible adversarial
attack. We further propose an effective algorithm, called AdvImmune, which
optimizes with meta-gradient in a discrete way to circumvent the
computationally expensive combinatorial optimization when solving the
adversarial immunization problem. Experiments are conducted on two citation
networks and one social network. Experimental results demonstrate that the
proposed AdvImmune method remarkably improves the ratio of robust nodes by 12%,
42%, 65%, with an affordable immune budget of only 5% edges.
- Abstract(参考訳): 半教師付きノード分類タスクの性能は高いが、グラフニューラルネットワーク(gnn)は他のディープラーニングモデルと同様、敵対的攻撃に弱い。
既存の研究は、グラフ上の敵対的攻撃に対する堅牢なgnnモデルまたは攻撃検出手法の開発に焦点を当てている。
しかし、グラフに対する敵対的攻撃に対する免疫の可能性や実践にはほとんど研究の注意が払われていない。
本稿では, グラフ対免疫問題, すなわち, 接続あるいは非接続の安価なノード対を接種し, 許容可能な攻撃に対するグラフの堅牢性を改善することを提案する。
さらに, 対向免疫問題の解法において, 計算コストのかかる組合せ最適化を回避するために, メタグラディエントを離散的に最適化するアルゴリズムAdvImmuneを提案する。
2つの引用ネットワークと1つのソーシャルネットワークで実験を行う。
実験の結果,AdvImmune法は,比較的手頃な免疫予算を5%に抑えつつ,ロバストノードの比率を12%,42%,65%向上させることがわかった。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - IDEA: Invariant Causal Defense for Graph Adversarial Robustness [44.56936472040539]
本稿では,敵対的攻撃(IDEA)に対する不変因果解法を提案する。
本手法は,ラベルの強い予測可能性と攻撃間の不変な予測可能性を有する因果的特徴を学習し,グラフの対角的堅牢性を実現することを目的とする。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Graph Adversarial Immunization for Certifiable Robustness [63.58739705845775]
グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は、敵の訓練やモデル修正の開発に重点を置いている。
本稿では,グラフ構造の一部を接種するグラフ対人免疫法を提案し,定式化する。
論文 参考訳(メタデータ) (2023-02-16T03:18:43Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。