論文の概要: Graph Adversarial Immunization for Certifiable Robustness
- arxiv url: http://arxiv.org/abs/2302.08051v1
- Date: Thu, 16 Feb 2023 03:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:11:17.205376
- Title: Graph Adversarial Immunization for Certifiable Robustness
- Title(参考訳): 認証ロバスト性に対するグラフ反転免疫
- Authors: Shuchang Tao, Huawei Shen, Qi Cao, Yunfan Wu, Liang Hou, Xueqi Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は、敵の訓練や堅牢なGNNの開発に重点を置いている。
本稿では, グラフの可逆的攻撃に対する堅牢性を向上させるために, 対向的グラフ免疫法を提案し, 定式化する。
- 参考スコア(独自算出の注目度): 44.946152300106625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving great success, graph neural networks (GNNs) are vulnerable
to adversarial attacks. Existing defenses focus on developing adversarial
training or robust GNNs. However, little research attention is paid to the
potential and practice of immunization on graphs. In this paper, we propose and
formulate graph adversarial immunization, i.e., vaccinating part of graph
structure to improve certifiable robustness of graph against any admissible
adversarial attack. We first propose edge-level immunization to vaccinate node
pairs. Despite the primary success, such edge-level immunization cannot defend
against emerging node injection attacks, since it only immunizes existing node
pairs. To this end, we further propose node-level immunization. To circumvent
computationally expensive combinatorial optimization when solving adversarial
immunization, we design AdvImmune-Edge and AdvImmune-Node algorithms to
effectively obtain the immune node pairs or nodes. Experiments demonstrate the
superiority of AdvImmune methods. In particular, AdvImmune-Node remarkably
improves the ratio of robust nodes by 79%, 294%, and 100%, after immunizing
only 5% nodes. Furthermore, AdvImmune methods show excellent defensive
performance against various attacks, outperforming state-of-the-art defenses.
To the best of our knowledge, this is the first attempt to improve certifiable
robustness from graph data perspective without losing performance on clean
graphs, providing new insights into graph adversarial learning.
- Abstract(参考訳): 大きな成功にもかかわらず、グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は敵の訓練や堅牢なGNNの開発に重点を置いている。
しかし、グラフ上の免疫化の可能性と実践にはほとんど研究の注意が払われていない。
そこで本研究では,グラフ攻撃に対するグラフの証明可能なロバスト性を改善するために,グラフ攻撃免疫,すなわち,グラフ構造のワクチン化部を提案し,定式化する。
まず,ノード対を接種するためのエッジレベル免疫法を提案する。
主要な成功にもかかわらず、そのようなエッジレベルの免疫は、既存のノードペアのみを免疫するため、出現するノードインジェクション攻撃に対して防御できない。
この目的のために、我々はさらにノードレベルの免疫を提案する。
対向免疫の解法における計算コストのかかる組合せ最適化を回避するため,AdvImmune-EdgeおよびAdvImmune-Nodeアルゴリズムを設計し,免疫ノード対やノードを効果的に取得する。
実験はAdvImmune法が優れていることを示す。
特にAdvImmune-Nodeは、わずか5%のノードを免疫した後、ロバストノードの割合を79%、294%、100%改善している。
また、各種攻撃に対して優れた防御性能を示し、最先端の防御を上回っている。
私たちの知る限りでは、クリーングラフのパフォーマンスを損なうことなく、グラフデータの観点から証明可能な堅牢性を改善するための最初の試みである。
関連論文リスト
- Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Simple and Efficient Partial Graph Adversarial Attack: A New Perspective [16.083311332179633]
既存のグローバルアタックメソッドは、グラフ内のすべてのノードをアタックターゲットとして扱う。
攻撃対象として脆弱なノードを選択する部分グラフ攻撃(PGA)という全く新しい手法を提案する。
PGAは、既存のグラフグローバルアタック手法と比較して、アタック効果とアタック効率の両方で大幅に改善できる。
論文 参考訳(メタデータ) (2023-08-15T15:23:36Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Adversarial Immunization for Certifiable Robustness on Graphs [47.957807368630995]
グラフニューラルネットワーク(GNN)は、他のディープラーニングモデルと同様、敵攻撃に対して脆弱である。
本研究では, グラフ対免疫問題,すなわち, 接続あるいは非接続の安価なノード対をワクチン接種することで, 許容可能な攻撃に対するグラフの堅牢性を向上させることを提案する。
論文 参考訳(メタデータ) (2020-07-19T10:41:10Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。