論文の概要: Graph Adversarial Immunization for Certifiable Robustness
- arxiv url: http://arxiv.org/abs/2302.08051v1
- Date: Thu, 16 Feb 2023 03:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:11:17.205376
- Title: Graph Adversarial Immunization for Certifiable Robustness
- Title(参考訳): 認証ロバスト性に対するグラフ反転免疫
- Authors: Shuchang Tao, Huawei Shen, Qi Cao, Yunfan Wu, Liang Hou, Xueqi Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は、敵の訓練や堅牢なGNNの開発に重点を置いている。
本稿では, グラフの可逆的攻撃に対する堅牢性を向上させるために, 対向的グラフ免疫法を提案し, 定式化する。
- 参考スコア(独自算出の注目度): 44.946152300106625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving great success, graph neural networks (GNNs) are vulnerable
to adversarial attacks. Existing defenses focus on developing adversarial
training or robust GNNs. However, little research attention is paid to the
potential and practice of immunization on graphs. In this paper, we propose and
formulate graph adversarial immunization, i.e., vaccinating part of graph
structure to improve certifiable robustness of graph against any admissible
adversarial attack. We first propose edge-level immunization to vaccinate node
pairs. Despite the primary success, such edge-level immunization cannot defend
against emerging node injection attacks, since it only immunizes existing node
pairs. To this end, we further propose node-level immunization. To circumvent
computationally expensive combinatorial optimization when solving adversarial
immunization, we design AdvImmune-Edge and AdvImmune-Node algorithms to
effectively obtain the immune node pairs or nodes. Experiments demonstrate the
superiority of AdvImmune methods. In particular, AdvImmune-Node remarkably
improves the ratio of robust nodes by 79%, 294%, and 100%, after immunizing
only 5% nodes. Furthermore, AdvImmune methods show excellent defensive
performance against various attacks, outperforming state-of-the-art defenses.
To the best of our knowledge, this is the first attempt to improve certifiable
robustness from graph data perspective without losing performance on clean
graphs, providing new insights into graph adversarial learning.
- Abstract(参考訳): 大きな成功にもかかわらず、グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は敵の訓練や堅牢なGNNの開発に重点を置いている。
しかし、グラフ上の免疫化の可能性と実践にはほとんど研究の注意が払われていない。
そこで本研究では,グラフ攻撃に対するグラフの証明可能なロバスト性を改善するために,グラフ攻撃免疫,すなわち,グラフ構造のワクチン化部を提案し,定式化する。
まず,ノード対を接種するためのエッジレベル免疫法を提案する。
主要な成功にもかかわらず、そのようなエッジレベルの免疫は、既存のノードペアのみを免疫するため、出現するノードインジェクション攻撃に対して防御できない。
この目的のために、我々はさらにノードレベルの免疫を提案する。
対向免疫の解法における計算コストのかかる組合せ最適化を回避するため,AdvImmune-EdgeおよびAdvImmune-Nodeアルゴリズムを設計し,免疫ノード対やノードを効果的に取得する。
実験はAdvImmune法が優れていることを示す。
特にAdvImmune-Nodeは、わずか5%のノードを免疫した後、ロバストノードの割合を79%、294%、100%改善している。
また、各種攻撃に対して優れた防御性能を示し、最先端の防御を上回っている。
私たちの知る限りでは、クリーングラフのパフォーマンスを損なうことなく、グラフデータの観点から証明可能な堅牢性を改善するための最初の試みである。
関連論文リスト
- EdgePruner: Poisoned Edge Pruning in Graph Contrastive Learning [5.651740901104587]
グラフコントラスト学習(GCL)は、既存の学習モデルと同様に、有害な攻撃に対して脆弱である。
本稿では,GCL,EdgePrunerの簡易防衛法を提案する。
We show that EdgePruner can improve the accuracy of node classification under the attack than the state-of-the-art defense。
論文 参考訳(メタデータ) (2023-12-12T07:15:28Z) - Simple and Efficient Partial Graph Adversarial Attack: A New Perspective [16.083311332179633]
既存のグローバルアタックメソッドは、グラフ内のすべてのノードをアタックターゲットとして扱う。
攻撃対象として脆弱なノードを選択する部分グラフ攻撃(PGA)という全く新しい手法を提案する。
PGAは、既存のグラフグローバルアタック手法と比較して、アタック効果とアタック効率の両方で大幅に改善できる。
論文 参考訳(メタデータ) (2023-08-15T15:23:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Adversarial Immunization for Certifiable Robustness on Graphs [47.957807368630995]
グラフニューラルネットワーク(GNN)は、他のディープラーニングモデルと同様、敵攻撃に対して脆弱である。
本研究では, グラフ対免疫問題,すなわち, 接続あるいは非接続の安価なノード対をワクチン接種することで, 許容可能な攻撃に対するグラフの堅牢性を向上させることを提案する。
論文 参考訳(メタデータ) (2020-07-19T10:41:10Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。