論文の概要: Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2110.06468v1
- Date: Wed, 13 Oct 2021 03:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 15:25:38.663302
- Title: Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning
- Title(参考訳): graph-fraudster: グラフニューラルネットワークに基づく垂直フェデレーション学習における逆攻撃
- Authors: Jinyin Chen, Guohan Huang, Shanqing Yu, Wenrong Jiang, Chen Cui
- Abstract要約: グローバルモデルをトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
グラフ構造データの場合、GNNモデルを用いてVFLフレームワークを構築することは自然な考え方である。
GNNモデルは敵の攻撃に弱いことが証明されている。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
- 参考スコア(独自算出の注目度): 2.23816711660697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural network (GNN) models have achieved great success on graph
representation learning. Challenged by large scale private data collection from
user-side, GNN models may not be able to reflect the excellent performance,
without rich features and complete adjacent relationships. Addressing to the
problem, vertical federated learning (VFL) is proposed to implement local data
protection through training a global model collaboratively. Consequently, for
graph-structured data, it is natural idea to construct VFL framework with GNN
models. However, GNN models are proven to be vulnerable to adversarial attacks.
Whether the vulnerability will be brought into the VFL has not been studied. In
this paper, we devote to study the security issues of GNN based VFL (GVFL),
i.e., robustness against adversarial attacks. Further, we propose an
adversarial attack method, named Graph-Fraudster. It generates adversarial
perturbations based on the noise-added global node embeddings via GVFL's
privacy leakage, and the gradient of pairwise node. First, it steals the global
node embeddings and sets up a shadow server model for attack generator. Second,
noises are added into node embeddings to confuse the shadow server model. At
last, the gradient of pairwise node is used to generate attacks with the
guidance of noise-added node embeddings. To the best of our knowledge, this is
the first study of adversarial attacks on GVFL. The extensive experiments on
five benchmark datasets demonstrate that Graph-Fraudster performs better than
three possible baselines in GVFL. Furthermore, Graph-Fraudster can remain a
threat to GVFL even if two possible defense mechanisms are applied. This paper
reveals that GVFL is vulnerable to adversarial attack similar to centralized
GNN models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)モデルは,グラフ表現学習において大きな成功を収めている。
ユーザ側からの大規模なプライベートデータ収集によって、GNNモデルは、豊富な機能と完全な隣接関係なしに、優れたパフォーマンスを反映できない可能性がある。
この問題に対処するため,グローバルモデルを協調的にトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
したがって、グラフ構造データに対して、GNNモデルを用いてVFLフレームワークを構築することは自然な考えである。
しかし、GNNモデルは敵の攻撃に弱いことが証明されている。
脆弱性がVFLに持ち込まれるかどうかはまだ研究されていない。
本稿では,GNNベースのVFL(GVFL)のセキュリティ問題,すなわち敵攻撃に対する堅牢性について検討する。
さらに,Graph-Fraudsterという逆攻撃手法を提案する。
GVFLのプライバシーリークによるノイズ付加グローバルノード埋め込みと、ペアワイズノードの勾配に基づいて、逆方向の摂動を生成する。
まず、グローバルノードの埋め込みを盗み、攻撃生成のためのシャドーサーバモデルを設定する。
次に、ノード埋め込みにノイズを追加してシャドウサーバモデルを混乱させる。
最後に、ペアワイズノードの勾配は、ノイズ付加ノード埋め込みのガイダンスで攻撃を生成するために使用される。
我々の知る限りでは、これがGVFLに対する敵攻撃の最初の研究である。
5つのベンチマークデータセットに関する広範な実験は、Graph-FraudsterがGVFLで可能な3つのベースラインよりも優れたパフォーマンスを示している。
さらに、2つの防御機構が適用されたとしても、Graph-FraudsterはGVFLに対する脅威となる。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。