論文の概要: Fed-Listing: Federated Label Distribution Inference in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.00407v1
- Date: Fri, 30 Jan 2026 23:51:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.167221
- Title: Fed-Listing: Federated Label Distribution Inference in Graph Neural Networks
- Title(参考訳): Fed-Listing:グラフニューラルネットワークにおけるラベル分布推定
- Authors: Suprim Nakarmi, Junggab Son, Yue Zhao, Zuobin Xiong,
- Abstract要約: 分散ローカルグラフデータによる協調学習を容易にするために,フェデレーショングラフニューラルネットワーク(FedGNN)を提案する。
Fed-Listingは、生のデータやノードの機能にアクセスせずにFedGNN内のターゲットクライアントのプライベートなラベル統計を推測するグラデーションベースの攻撃である。
- 参考スコア(独自算出の注目度): 5.7422859267106885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have been intensively studied for their expressive representation and learning performance on graph-structured data, enabling effective modeling of complex relational dependencies among nodes and edges in various domains. However, the standalone GNNs can unleash threat surfaces and privacy implications, as some sensitive graph-structured data is collected and processed in a centralized setting. To solve this issue, Federated Graph Neural Networks (FedGNNs) are proposed to facilitate collaborative learning over decentralized local graph data, aiming to preserve user privacy. Yet, emerging research indicates that even in these settings, shared model updates, particularly gradients, can unintentionally leak sensitive information of local users. Numerous privacy inference attacks have been explored in traditional federated learning and extended to graph settings, but the problem of label distribution inference in FedGNNs remains largely underexplored. In this work, we introduce Fed-Listing (Federated Label Distribution Inference in GNNs), a novel gradient-based attack designed to infer the private label statistics of target clients in FedGNNs without access to raw data or node features. Fed-Listing only leverages the final-layer gradients exchanged during training to uncover statistical patterns that reveal class proportions in a stealthy manner. An auxiliary shadow dataset is used to generate diverse label partitioning strategies, simulating various client distributions, on which the attack model is obtained. Extensive experiments on four benchmark datasets and three GNN architectures show that Fed-Listing significantly outperforms existing baselines, including random guessing and Decaf, even under challenging non-i.i.d. scenarios. Moreover, applying defense mechanisms can barely reduce our attack performance, unless the model's utility is severely degraded.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での表現表現と学習性能について集中的に研究されており、様々な領域のノードとエッジ間の複雑な関係関係の効果的なモデリングを可能にしている。
しかしながら、スタンドアロンのGNNは、機密性の高いグラフ構造化データが収集され、中央集権的な環境で処理されるため、脅威サーフェスとプライバシの影響を解き放つことができる。
この問題を解決するために、フェデレーショングラフニューラルネットワーク(FedGNNs)が提案され、分散化されたローカルグラフデータによる協調学習を容易にし、ユーザのプライバシの保護を目指している。
しかし、近年の研究では、共有モデルのアップデート、特にグラデーションが、ローカルユーザーの機密情報を意図せずに漏洩させる可能性があることが示されている。
従来のフェデレーション学習において多くのプライバシ推論攻撃が検討され、グラフ設定にまで拡張されているが、FedGNNにおけるラベル分布推論の問題はいまだに未解明である。
本稿では,Fed-Listing (Federated Label Distribution Inference in GNNs)を提案する。これは,FedGNNにおけるターゲットクライアントのプライベートなラベル統計を,生データやノードの機能にアクセスせずに推測する,新たなグラデーションベースの攻撃である。
Fed-Listingは、トレーニング中に交換された最終層勾配を利用して、クラスの割合をステルス的に明らかにする統計パターンを明らかにする。
補助的なシャドウデータセットを用いて多様なラベル分割戦略を生成し、攻撃モデルが得られる様々なクライアント分布をシミュレートする。
4つのベンチマークデータセットと3つのGNNアーキテクチャに関する大規模な実験により、Fed-Listingは、ランダムな推測やデカフを含む既存のベースラインを大幅に上回っている。
さらに、防御機構を適用することで、モデルの有用性が著しく低下しない限り、攻撃性能をわずかに低下させることができる。
関連論文リスト
- Rethinking Federated Graph Foundation Models: A Graph-Language Alignment-based Approach [8.517604507672262]
フェデレーショングラフ基礎モデル(FedGFMs)の最近の研究は、グラフ基礎モデルを訓練するために集中的なデータストレージを持つという理想的かつ持続不可能な仮定を破っている。
ベクトル量子化されたバックボーンを経由した離散トークン空間上の一般化可能な知識が、量子化過程中に不可逆的な知識損失に悩まされるという研究は、現存する。
論文 参考訳(メタデータ) (2026-01-29T07:50:00Z) - Who Owns This Sample: Cross-Client Membership Inference Attack in Federated Graph Neural Networks [15.801164432263183]
本稿では,連合GNNのノード分類タスクに対するクロスクライアント型メンバシップ推論攻撃(CC-MIA)の最初の系統的研究について述べる。
当社の攻撃対象は、フェデレートされた設定に特有の、よりきめ細かいプライバシーリスクであるサンプルからクライアントへの属性です。
我々の研究結果は、構造的およびモデルレベルの手がかりを通じて、フェデレーション付きグラフ学習によるアイデンティティリークにおける新たなプライバシー上の脅威を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-26T14:32:38Z) - FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Federated Spectral Graph Transformers Meet Neural Ordinary Differential Equations for Non-IID Graphs [3.345437353879255]
グラフニューラルネットワーク(GNN)の研究は、グラフ構造化データから分散表現を学習する能力のため、急速に進歩している。
GNNトレーニングのための大量の実世界のグラフデータを集中化することは、プライバシの懸念、規制規制、商業的競争のためにしばしば現実的ではない。
本稿では, ニューラル常微分方程式(ODE)を用いたスペクトルGNNをベースとした, GNN上でのフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2025-04-16T06:43:20Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage [1.5438758943381854]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Discriminability of Single-Layer Graph Neural Networks [172.5042368548269]
グラフニューラルネットワーク(GNN)は、幅広い問題について有望な性能を示した。
本稿では, 識別可能性の特性に着目し, 安定グラフフィルタバンクへのポイントワイド非線形性の適用により, 高固有値コンテンツに対する識別能力が向上する条件を確立する。
論文 参考訳(メタデータ) (2020-10-17T18:52:34Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。