論文の概要: Backdoor Graph Condensation
- arxiv url: http://arxiv.org/abs/2407.11025v2
- Date: Wed, 17 Jul 2024 02:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 21:28:12.174965
- Title: Backdoor Graph Condensation
- Title(参考訳): バックドアグラフ凝縮
- Authors: Jiahao Wu, Ning Lu, Zeiyu Dai, Wenqi Fan, Shengcai Liu, Qing Li, Ke Tang,
- Abstract要約: 我々はBGCと呼ばれるグラフ凝縮に対する最初のバックドア攻撃を考案した。
BGCは高い攻撃成功率(1.0に近づいた)と優れたモデルユーティリティをすべてのケースで達成する。
- 参考スコア(独自算出の注目度): 26.10509445856433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, graph condensation has emerged as a prevalent technique to improve the training efficiency for graph neural networks (GNNs). It condenses a large graph into a small one such that a GNN trained on this small synthetic graph can achieve comparable performance to a GNN trained on a large graph. However, while existing graph condensation studies mainly focus on the best trade-off between graph size and the GNNs' performance (model utility), the security issues of graph condensation have not been studied. To bridge this research gap, we propose the task of backdoor graph condensation. While graph backdoor attacks have been extensively explored, applying existing graph backdoor methods for graph condensation is not practical since they can undermine the model utility and yield low attack success rate. To alleviate these issues, we introduce two primary objectives for backdoor attacks against graph condensation: 1) the injection of triggers cannot affect the quality of condensed graphs, maintaining the utility of GNNs trained on them; and 2) the effectiveness of triggers should be preserved throughout the condensation process, achieving high attack success rate. To pursue the objectives, we devise the first backdoor attack against graph condensation, denoted as BGC. Specifically, we inject triggers during condensation and iteratively update the triggers to ensure effective attacks. Further, we propose a poisoned node selection module to minimize the influence of triggers on condensed graphs' quality. The extensive experiments demonstrate the effectiveness of our attack. BGC achieves a high attack success rate (close to 1.0) and good model utility in all cases. Furthermore, the results demonstrate our method's resilience against multiple defense methods. Finally, we conduct comprehensive studies to analyze the factors that influence the attack performance.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)のトレーニング効率を向上させるために,グラフ凝縮が主流となっている。
これは、大きなグラフを、この小さな合成グラフで訓練されたGNNが、大きなグラフで訓練されたGNNに匹敵する性能を達成できるような、小さなグラフに凝縮する。
しかし、既存のグラフ凝縮の研究は主にグラフサイズとGNNの性能(モデルユーティリティ)の最良のトレードオフに焦点を当てているが、グラフ凝縮のセキュリティ問題は研究されていない。
この研究ギャップを埋めるために,バックドアグラフ凝縮の課題を提案する。
グラフバックドア攻撃は広く研究されているが、グラフ凝縮に既存のグラフバックドア手法を適用することは実用的ではない。
これらの問題を緩和するために、グラフ凝縮に対するバックドアアタックの2つの主要な目的を紹介します。
1)トリガーの注入は凝縮グラフの品質に影響を与えず、その上で訓練されたGNNの実用性を維持する。
2) トリガーの有効性は, 凝縮過程を通じて維持され, 高い攻撃成功率を達成できる。
目的を追求するため,BGCと呼ばれるグラフ凝縮に対する最初のバックドア攻撃を考案した。
具体的には、凝縮中にトリガーを注入し、効果的な攻撃を保証するためにトリガーを反復的に更新する。
さらに, トリガが凝縮グラフの品質に与える影響を最小限に抑えるために, 有毒ノード選択モジュールを提案する。
大規模な実験は、我々の攻撃の有効性を実証している。
BGCは高い攻撃成功率(1.0に近づいた)と優れたモデルユーティリティをすべてのケースで達成する。
さらに, 本手法の複数の防御方法に対するレジリエンスを実証した。
最後に,攻撃性能に影響を与える要因を総合的に分析する。
関連論文リスト
- Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - On the Robustness of Graph Reduction Against GNN Backdoor [9.377257547233919]
グラフニューラルネットワーク(GNN)は,グラフ構造化データ学習の有効性から,さまざまな領域で人気を集めている。
バックドア中毒は、現実世界の応用に深刻な脅威をもたらす。
粗大化やスパシフィケーションを含むグラフ削減技術は、大規模グラフ上でのGNNトレーニングを加速する有効な方法として現れている。
論文 参考訳(メタデータ) (2024-07-02T17:08:38Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。