論文の概要: Who Owns This Sample: Cross-Client Membership Inference Attack in Federated Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2507.19964v1
- Date: Sat, 26 Jul 2025 14:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:56.56097
- Title: Who Owns This Sample: Cross-Client Membership Inference Attack in Federated Graph Neural Networks
- Title(参考訳): このサンプルを誰が所有するか:フェデレートされたグラフニューラルネットワークにおけるクロスクライアントメンバーシップ推論攻撃
- Authors: Kunhao Li, Di Wu, Jun Bai, Jing Xu, Lei Yang, Ziyi Zhang, Yiliao Song, Wencheng Yang, Taotao Cai, Yan Li,
- Abstract要約: 本稿では,連合GNNのノード分類タスクに対するクロスクライアント型メンバシップ推論攻撃(CC-MIA)の最初の系統的研究について述べる。
当社の攻撃対象は、フェデレートされた設定に特有の、よりきめ細かいプライバシーリスクであるサンプルからクライアントへの属性です。
我々の研究結果は、構造的およびモデルレベルの手がかりを通じて、フェデレーション付きグラフ学習によるアイデンティティリークにおける新たなプライバシー上の脅威を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 15.801164432263183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph-structured data is prevalent in many real-world applications, including social networks, financial systems, and molecular biology. Graph Neural Networks (GNNs) have become the de facto standard for learning from such data due to their strong representation capabilities. As GNNs are increasingly deployed in federated learning (FL) settings to preserve data locality and privacy, new privacy threats arise from the interaction between graph structures and decentralized training. In this paper, we present the first systematic study of cross-client membership inference attacks (CC-MIA) against node classification tasks of federated GNNs (FedGNNs), where a malicious client aims to infer which client owns the given data. Unlike prior centralized-focused work that focuses on whether a sample was included in training, our attack targets sample-to-client attribution, a finer-grained privacy risk unique to federated settings. We design a general attack framework that exploits FedGNNs' aggregation behaviors, gradient updates, and embedding proximity to link samples to their source clients across training rounds. We evaluate our attack across multiple graph datasets under realistic FL setups. Results show that our method achieves high performance on both membership inference and ownership identification. Our findings highlight a new privacy threat in federated graph learning-client identity leakage through structural and model-level cues, motivating the need for attribution-robust GNN design.
- Abstract(参考訳): グラフ構造化データは、ソーシャルネットワーク、金融システム、分子生物学など、多くの現実世界のアプリケーションで広く利用されている。
グラフニューラルネットワーク(GNN)は,そのようなデータから学習するデファクトスタンダードとなっている。
GNNは、データのローカリティとプライバシを保護するために、フェデレートラーニング(FL)設定にますますデプロイされているため、グラフ構造と分散トレーニングの相互作用によって、新たなプライバシの脅威が発生する。
本稿では,クライアントが与えられたデータをどのクライアントが所有するかを推定するFedGNN(Federated GNNs)のノード分類タスクに対する,クロスクライアント型メンバシップ推論攻撃(CC-MIA)の最初の系統的研究について述べる。
トレーニングにサンプルが含まれているかどうかに焦点を当てた従来型の集中型作業とは異なり、当社の攻撃対象は、フェデレートされた設定に特有の、よりきめ細かいプライバシーリスクであるサンプルからクライアントへの属性である。
我々は、FedGNNsのアグリゲーション動作、勾配更新、およびトレーニングラウンド全体にわたってサンプルをソースクライアントにリンクするための近接の埋め込みを利用する一般的なアタックフレームワークを設計する。
現実的なFL設定下で複数のグラフデータセットに対する攻撃を評価する。
その結果,提案手法はメンバーシップ推定とオーナシップ同定の両方において高い性能を示すことがわかった。
我々の発見は、構造的およびモデルレベルの手がかりを通じて、フェデレーション付きグラフ学習によるアイデンティティリークの新たなプライバシの脅威を浮き彫りにし、帰属を損なうGNN設計の必要性を動機付けている。
関連論文リスト
- FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Federated Graph Learning with Graphless Clients [52.5629887481768]
FGL(Federated Graph Learning)は、グラフニューラルネットワーク(GNN)などの機械学習モデルをトレーニングするタスクである。
グラフレスクライアントを用いたFGLにおける問題に対処するための新しいフレームワークFedGLSを提案する。
論文 参考訳(メタデータ) (2024-11-13T06:54:05Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - GNN4FR: A Lossless GNN-based Federated Recommendation Framework [13.672867761388675]
グラフニューラルネットワーク(GNN)はレコメンデーションシステムで広く普及している。
本フレームワークは,完全高次構造情報を用いたフルグラフ学習を実現する。
さらに、LightGCNを使ってフレームワークの例をインスタンス化し、その等価性を示す。
論文 参考訳(メタデータ) (2023-07-25T16:55:17Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Node-Level Membership Inference Attacks Against Graph Neural Networks [29.442045622210532]
新しい機械学習(ML)モデル、すなわちグラフニューラルネットワーク(GNN)が導入された。
これまでの研究では、機械学習モデルはプライバシー攻撃に弱いことが示されている。
本稿では,GNNに対するノードレベルメンバシップ推論攻撃の包括的解析を行う。
論文 参考訳(メタデータ) (2021-02-10T13:51:54Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。