論文の概要: Query-Efficient Adversarial Attack Against Vertical Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2411.02809v1
- Date: Tue, 05 Nov 2024 04:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:59:20.221461
- Title: Query-Efficient Adversarial Attack Against Vertical Federated Graph Learning
- Title(参考訳): 縦型フェデレーショングラフ学習に対するクエリ効率の良い逆攻撃
- Authors: Jinyin Chen, Wenbo Mu, Luxin Zhang, Guohan Huang, Haibin Zheng, Yao Cheng,
- Abstract要約: クエリ効率のよいハイブリッド逆攻撃フレームワークを提案する。
操作されたデータに基づいてシャドーモデルを確立し、サーバモデルの振る舞いをシミュレートする。
5つの実世界のベンチマーク実験により、NA2はVFGLに対する中央集権攻撃の性能を改善することが示された。
- 参考スコア(独自算出の注目度): 5.784274742483707
- License:
- Abstract: Graph neural network (GNN) has captured wide attention due to its capability of graph representation learning for graph-structured data. However, the distributed data silos limit the performance of GNN. Vertical federated learning (VFL), an emerging technique to process distributed data, successfully makes GNN possible to handle the distributed graph-structured data. Despite the prosperous development of vertical federated graph learning (VFGL), the robustness of VFGL against the adversarial attack has not been explored yet. Although numerous adversarial attacks against centralized GNNs are proposed, their attack performance is challenged in the VFGL scenario. To the best of our knowledge, this is the first work to explore the adversarial attack against VFGL. A query-efficient hybrid adversarial attack framework is proposed to significantly improve the centralized adversarial attacks against VFGL, denoted as NA2, short for Neuron-based Adversarial Attack. Specifically, a malicious client manipulates its local training data to improve its contribution in a stealthy fashion. Then a shadow model is established based on the manipulated data to simulate the behavior of the server model in VFGL. As a result, the shadow model can improve the attack success rate of various centralized attacks with a few queries. Extensive experiments on five real-world benchmarks demonstrate that NA2 improves the performance of the centralized adversarial attacks against VFGL, achieving state-of-the-art performance even under potential adaptive defense where the defender knows the attack method. Additionally, we provide interpretable experiments of the effectiveness of NA2 via sensitive neurons identification and visualization of t-SNE.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データに対するグラフ表現学習の能力のために、広く注目を集めている。
しかし、分散データサイロはGNNの性能を制限する。
分散データを処理する新たな技術である垂直連合学習(VFL)は、分散グラフ構造化データの処理に成功している。
垂直連合グラフ学習(VFGL)の発達にもかかわらず、VFGLの敵攻撃に対する堅牢性はまだ検討されていない。
集中型GNNに対する多くの敵攻撃が提案されているが、VFGLシナリオではその攻撃性能が問題視されている。
我々の知る限りでは、VFGLに対する敵対的攻撃を探求する最初の試みである。
VFGLに対する中央集権的敵攻撃(NA2と表記される)を大幅に改善するために、クエリ効率の良いハイブリッド敵攻撃フレームワークが提案されている。
具体的には、悪意のあるクライアントがそのローカルトレーニングデータを操作して、ステルス的な方法で貢献を改善する。
次に、操作されたデータに基づいてシャドーモデルを確立し、VFGL内のサーバモデルの振る舞いをシミュレートする。
その結果、シャドウモデルでは、クエリ数クエリで様々な集中攻撃の攻撃成功率を改善することができる。
5つの実世界のベンチマークによる大規模な実験により、NA2はVFGLに対する中央集権的敵攻撃の性能を改善し、防御者が攻撃方法を知っていれば、潜在的適応防御の下でも最先端のパフォーマンスを達成することを示した。
さらに、機密性ニューロンの同定とt-SNEの可視化によるNA2の有効性の解釈実験を行った。
関連論文リスト
- Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Talos: A More Effective and Efficient Adversarial Defense for GNN Models Based on the Global Homophily of Graphs [2.4866716181615467]
グラフニューラルネットワーク(GNN)モデルは、敵攻撃の影響を受けやすい。
そこで我々は,グラフの局所的ホモフィリーを防御としてではなく,グローバル性を高める,Talosという新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T08:08:01Z) - Disttack: Graph Adversarial Attacks Toward Distributed GNN Training [18.487718294296442]
グラフニューラルネットワーク(GNN)は,グラフ学習の強力なモデルとして登場した。
分散GNNトレーニングのための最初の敵攻撃フレームワークであるDisttackを紹介する。
Disttackはモデル精度を2.75$times$で、平均17.33$times$で高速化する。
論文 参考訳(メタデータ) (2024-05-10T05:09:59Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning [2.23816711660697]
グローバルモデルをトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
グラフ構造データの場合、GNNモデルを用いてVFLフレームワークを構築することは自然な考え方である。
GNNモデルは敵の攻撃に弱いことが証明されている。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
論文 参考訳(メタデータ) (2021-10-13T03:06:02Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。