論文の概要: Backdoor Attack on Vertical Federated Graph Neural Network Learning
- arxiv url: http://arxiv.org/abs/2410.11290v2
- Date: Fri, 24 Jan 2025 14:13:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:19.098328
- Title: Backdoor Attack on Vertical Federated Graph Neural Network Learning
- Title(参考訳): 垂直フェデレーショングラフニューラルネットワーク学習におけるバックドアアタック
- Authors: Jirui Yang, Peng Chen, Zhihui Lu, Ruijun Deng, Qiang Duan, Jianping Zeng,
- Abstract要約: フェデレーショングラフニューラルネットワーク(FedGNN)は、分散グラフデータに対するプライバシ保護トレーニングを可能にするために、フェデレーション学習とグラフニューラルネットワーク(GNN)を統合する。
Vertical Federated Graph Neural Network (VFGNN)は、データ機能とラベルが参加者間で分散されるシナリオを扱う。
VFGNNの堅牢なプライバシー保護設計にもかかわらず、バックドア攻撃のリスクに直面していることが判明した。
本稿では,マルチホップトリガとバックドア保持を利用した新たなバックドア攻撃手法であるBVGを提案する。
- 参考スコア(独自算出の注目度): 6.540725813096829
- License:
- Abstract: Federated Graph Neural Network (FedGNN) integrate federated learning (FL) with graph neural networks (GNNs) to enable privacy-preserving training on distributed graph data. Vertical Federated Graph Neural Network (VFGNN), a key branch of FedGNN, handles scenarios where data features and labels are distributed among participants. Despite the robust privacy-preserving design of VFGNN, we have found that it still faces the risk of backdoor attacks, even in situations where labels are inaccessible. This paper proposes BVG, a novel backdoor attack method that leverages multi-hop triggers and backdoor retention, requiring only four target-class nodes to execute effective attacks. Experimental results demonstrate that BVG achieves nearly 100% attack success rates across three commonly used datasets and three GNN models, with minimal impact on the main task accuracy. We also evaluated various defense methods, and the BVG method maintained high attack effectiveness even under existing defenses. This finding highlights the need for advanced defense mechanisms to counter sophisticated backdoor attacks in practical VFGNN applications.
- Abstract(参考訳): フェデレーショングラフニューラルネットワーク(FedGNN)は、フェデレーション学習(FL)とグラフニューラルネットワーク(GNN)を統合し、分散グラフデータに対するプライバシー保護トレーニングを可能にする。
FedGNNのキーブランチであるVertical Federated Graph Neural Network(VFGNN)は、データ機能とラベルが参加者間で分散されるシナリオを処理する。
VFGNNの堅牢なプライバシ保護設計にもかかわらず、ラベルにアクセスできない状況でも、バックドア攻撃のリスクに直面していることがわかりました。
本稿では,マルチホップトリガとバックドア保持を利用した新たなバックドア攻撃手法であるBVGを提案する。
実験結果から、BVGは3つの一般的なデータセットと3つのGNNモデルに対して、100%近い攻撃成功率を達成し、主要なタスク精度に最小限の影響を及ぼすことが示された。
また,BVG法は既存の防御下においても高い攻撃効果を維持した。
この発見は、実用的なVFGNNアプリケーションにおいて、高度なバックドア攻撃に対抗するための高度な防御機構の必要性を強調している。
関連論文リスト
- MADE: Graph Backdoor Defense with Masked Unlearning [24.97718571096943]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクの処理能力に優れていたため、研究者から大きな注目を集めている。
最近の研究では、GNNはトレーニングデータセットにトリガを注入することで実装されたバックドア攻撃に対して脆弱であることが示されている。
この脆弱性は、薬物発見のようなセンシティブなドメインにおけるGNNの応用に重大なセキュリティリスクをもたらす。
論文 参考訳(メタデータ) (2024-11-26T22:50:53Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - More is Better (Mostly): On the Backdoor Attacks in Federated Graph Neural Networks [25.372833814088178]
グラフニューラルネットワーク(Graph Neural Networks、GNN)は、グラフドメイン情報を処理するためのディープラーニングベースの手法のクラスである。
本稿では,集中型バックドア攻撃 (CBA) と分散バックドア攻撃 (DBA) の2種類のバックドア攻撃を行う。
我々は、両方の攻撃が調査対象の防衛に対して堅牢であることに気付き、フェデレートGNNにおけるバックドア攻撃を新たな脅威とみなす必要がある。
論文 参考訳(メタデータ) (2022-02-07T14:09:39Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。