論文の概要: Graph Adversarial Immunization for Certifiable Robustness
- arxiv url: http://arxiv.org/abs/2302.08051v2
- Date: Sat, 23 Sep 2023 08:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 03:51:45.728288
- Title: Graph Adversarial Immunization for Certifiable Robustness
- Title(参考訳): 認証ロバスト性に対するグラフ反転免疫
- Authors: Shuchang Tao, Huawei Shen, Qi Cao, Yunfan Wu, Liang Hou, Xueqi Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防衛は、敵の訓練やモデル修正の開発に重点を置いている。
本稿では,グラフ構造の一部を接種するグラフ対人免疫法を提案し,定式化する。
- 参考スコア(独自算出の注目度): 63.58739705845775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving great success, graph neural networks (GNNs) are vulnerable
to adversarial attacks. Existing defenses focus on developing adversarial
training or model modification. In this paper, we propose and formulate graph
adversarial immunization, i.e., vaccinating part of graph structure to improve
certifiable robustness of graph against any admissible adversarial attack. We
first propose edge-level immunization to vaccinate node pairs. Unfortunately,
such edge-level immunization cannot defend against emerging node injection
attacks, since it only immunizes existing node pairs. To this end, we further
propose node-level immunization. To avoid computationally intensive
combinatorial optimization associated with adversarial immunization, we develop
AdvImmune-Edge and AdvImmune-Node algorithms to effectively obtain the immune
node pairs or nodes. Extensive experiments demonstrate the superiority of
AdvImmune methods. In particular, AdvImmune-Node remarkably improves the ratio
of robust nodes by 79%, 294%, and 100%, after immunizing only 5% of nodes.
Furthermore, AdvImmune methods show excellent defensive performance against
various attacks, outperforming state-of-the-art defenses. To the best of our
knowledge, this is the first attempt to improve certifiable robustness from
graph data perspective without losing performance on clean graphs, providing
new insights into graph adversarial learning.
- Abstract(参考訳): 大きな成功にもかかわらず、グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
既存の防御は、敵対的な訓練やモデル修正の開発に焦点を当てている。
そこで本研究では,グラフ攻撃に対するグラフの証明可能なロバスト性を改善するために,グラフ攻撃免疫,すなわち,グラフ構造のワクチン化部を提案し,定式化する。
まず,ノード対を接種するためのエッジレベル免疫法を提案する。
残念なことに、このようなエッジレベルの免疫は、既存のノード対のみを免疫するので、新たなノードインジェクション攻撃を防げない。
この目的のために、我々はさらにノードレベルの免疫を提案する。
対向免疫に付随する計算集約的な組合せ最適化を回避するため,AdvImmune-EdgeおよびAdvImmune-Nodeアルゴリズムを開発し,免疫ノード対やノードを効果的に取得する。
大規模な実験はAdvImmune法が優れていることを示す。
特にAdvImmune-Nodeは、わずか5%のノードを免疫した後、ロバストノードの割合を79%、294%、100%改善している。
また、各種攻撃に対して優れた防御性能を示し、最先端の防御を上回っている。
私たちの知る限りでは、クリーングラフのパフォーマンスを損なうことなく、グラフデータの観点から証明可能な堅牢性を改善するための最初の試みである。
関連論文リスト
- EdgePruner: Poisoned Edge Pruning in Graph Contrastive Learning [5.651740901104587]
グラフコントラスト学習(GCL)は、既存の学習モデルと同様に、有害な攻撃に対して脆弱である。
本稿では,GCL,EdgePrunerの簡易防衛法を提案する。
We show that EdgePruner can improve the accuracy of node classification under the attack than the state-of-the-art defense。
論文 参考訳(メタデータ) (2023-12-12T07:15:28Z) - Simple and Efficient Partial Graph Adversarial Attack: A New Perspective [16.083311332179633]
既存のグローバルアタックメソッドは、グラフ内のすべてのノードをアタックターゲットとして扱う。
攻撃対象として脆弱なノードを選択する部分グラフ攻撃(PGA)という全く新しい手法を提案する。
PGAは、既存のグラフグローバルアタック手法と比較して、アタック効果とアタック効率の両方で大幅に改善できる。
論文 参考訳(メタデータ) (2023-08-15T15:23:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Adversarial Immunization for Certifiable Robustness on Graphs [47.957807368630995]
グラフニューラルネットワーク(GNN)は、他のディープラーニングモデルと同様、敵攻撃に対して脆弱である。
本研究では, グラフ対免疫問題,すなわち, 接続あるいは非接続の安価なノード対をワクチン接種することで, 許容可能な攻撃に対するグラフの堅牢性を向上させることを提案する。
論文 参考訳(メタデータ) (2020-07-19T10:41:10Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。