論文の概要: VGFL-SA: Vertical Graph Federated Learning Structure Attack Based on Contrastive Learning
- arxiv url: http://arxiv.org/abs/2502.16793v1
- Date: Mon, 24 Feb 2025 03:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:57:07.447264
- Title: VGFL-SA: Vertical Graph Federated Learning Structure Attack Based on Contrastive Learning
- Title(参考訳): VGFL-SA:コントラスト学習に基づく垂直グラフフェデレーション学習構造攻撃
- Authors: Yang Chen, Bin Zhou,
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフデータから表現を学習する能力に注目されている。
近年の研究では、垂直グラフフェデレーション学習フレームワークは、性能を低下させる敵攻撃に弱いことが示されている。
ラベルを使わずにローカルクライアント構造を変更してVGFLの性能を低下させるために,VGFL-SAと呼ばれる新しいグラフ対逆攻撃を提案する。
- 参考スコア(独自算出の注目度): 16.681157857248436
- License:
- Abstract: Graph Neural Networks (GNNs) have gained attention for their ability to learn representations from graph data. Due to privacy concerns and conflicts of interest that prevent clients from directly sharing graph data with one another, Vertical Graph Federated Learning (VGFL) frameworks have been developed. Recent studies have shown that VGFL is vulnerable to adversarial attacks that degrade performance. However, it is a common problem that client nodes are often unlabeled in the realm of VGFL. Consequently, the existing attacks, which rely on the availability of labeling information to obtain gradients, are inherently constrained in their applicability. This limitation precludes their deployment in practical, real-world environments. To address the above problems, we propose a novel graph adversarial attack against VGFL, referred to as VGFL-SA, to degrade the performance of VGFL by modifying the local clients structure without using labels. Specifically, VGFL-SA uses a contrastive learning method to complete the attack before the local clients are trained. VGFL-SA first accesses the graph structure and node feature information of the poisoned clients, and generates the contrastive views by node-degree-based edge augmentation and feature shuffling augmentation. Then, VGFL-SA uses the shared graph encoder to get the embedding of each view, and the gradients of the adjacency matrices are obtained by the contrastive function. Finally, perturbed edges are generated using gradient modification rules. We validated the performance of VGFL-SA by performing a node classification task on real-world datasets, and the results show that VGFL-SA achieves good attack effectiveness and transferability.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフデータから表現を学習する能力に注目されている。
クライアントがグラフデータを直接共有できないというプライバシー上の懸念と関心の対立のため、垂直グラフフェデレーションラーニング(VGFL)フレームワークが開発されている。
近年の研究では、VGFLは性能を低下させる敵攻撃に弱いことが示されている。
しかし、クライアントノードがVGFLの領域でラベル付けされることはよくある問題である。
その結果、ラベル情報を利用して勾配を求める既存の攻撃は、その適用性に固有の制約が課せられる。
この制限により、実用的で現実的な環境への展開が妨げられる。
上記の問題に対処するために,ラベルを使わずにローカルクライアント構造を変更してVGFLの性能を低下させる,VGFL-SAと呼ばれる新しいグラフ対逆攻撃を提案する。
具体的には、VGFL-SAは、ローカルクライアントがトレーニングされる前に攻撃を完了するために、対照的な学習方法を使用している。
VGFL-SAは、まず、有毒なクライアントのグラフ構造とノード特徴情報にアクセスし、ノード度ベースのエッジ拡張と特徴シャッフル拡張によるコントラストビューを生成する。
そして、VGFL-SAは、共有グラフエンコーダを用いて各ビューの埋め込みを取得し、その対比関数により隣接行列の勾配を求める。
最後に、勾配修正規則を用いて摂動エッジを生成する。
実世界のデータセット上でノード分類タスクを実行することで,VGFL-SAの性能を検証し,VGFL-SAが優れた攻撃効率と転送性を実現することを示す。
関連論文リスト
- Query-Efficient Adversarial Attack Against Vertical Federated Graph Learning [5.784274742483707]
クエリ効率のよいハイブリッド逆攻撃フレームワークを提案する。
操作されたデータに基づいてシャドーモデルを確立し、サーバモデルの振る舞いをシミュレートする。
5つの実世界のベンチマーク実験により、NA2はVFGLに対する中央集権攻撃の性能を改善することが示された。
論文 参考訳(メタデータ) (2024-11-05T04:52:20Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Contrastive Graph Few-Shot Learning [67.01464711379187]
グラフマイニングタスクのためのコントラストグラフFew-shot Learningフレームワーク(CGFL)を提案する。
CGFLは、データ表現を自己管理的に学習し、分散シフトの影響を緩和し、より良い一般化を行う。
総合的な実験により、CGFLはいくつかのグラフマイニングタスクにおいて最先端のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2022-09-30T20:40:23Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning [2.23816711660697]
グローバルモデルをトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
グラフ構造データの場合、GNNモデルを用いてVFLフレームワークを構築することは自然な考え方である。
GNNモデルは敵の攻撃に弱いことが証明されている。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
論文 参考訳(メタデータ) (2021-10-13T03:06:02Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - GraphFL: A Federated Learning Framework for Semi-Supervised Node
Classification on Graphs [48.13100386338979]
グラフ上の半教師付きノード分類のための最初のFLフレームワークであるGraphFLを提案する。
本稿では,グラフデータの非IID問題に対処する2つのGraphFL法を提案し,そのタスクを新しいラベルドメインで処理する。
代表グラフニューラルネットワークをGraphSSC法として採用し,複数のグラフデータセット上でGraphFLを評価する。
論文 参考訳(メタデータ) (2020-12-08T03:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。