論文の概要: GraphDLG: Exploring Deep Leakage from Gradients in Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2601.19745v1
- Date: Tue, 27 Jan 2026 16:06:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.384398
- Title: GraphDLG: Exploring Deep Leakage from Gradients in Federated Graph Learning
- Title(参考訳): GraphDLG: フェデレートグラフ学習におけるグラディエントからの深い漏洩を探る
- Authors: Shuyue Wei, Wantong Chen, Tongyu Wei, Chen Gong, Yongxin Tong, Lizhen Cui,
- Abstract要約: フェデレーショングラフ学習(FGL)は、複数のデータ所有者間で分散グラフ学習を可能にする、有望なプライバシ保護パラダイムとして登場した。
FGLにおける重要なプライバシー上の懸念は、敵が共有勾配から生データを復元できるかどうかである。
本稿では,FGLの共有勾配から生の学習グラフを復元する新しい手法であるGraphDLGを提案する。
- 参考スコア(独自算出の注目度): 33.0777343271681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated graph learning (FGL) has recently emerged as a promising privacy-preserving paradigm that enables distributed graph learning across multiple data owners. A critical privacy concern in federated learning is whether an adversary can recover raw data from shared gradients, a vulnerability known as deep leakage from gradients (DLG). However, most prior studies on the DLG problem focused on image or text data, and it remains an open question whether graphs can be effectively recovered, particularly when the graph structure and node features are uniquely entangled in GNNs. In this work, we first theoretically analyze the components in FGL and derive a crucial insight: once the graph structure is recovered, node features can be obtained through a closed-form recursive rule. Building on this analysis, we propose GraphDLG, a novel approach to recover raw training graphs from shared gradients in FGL, which can utilize randomly generated graphs or client-side training graphs as auxiliaries to enhance recovery. Extensive experiments demonstrate that GraphDLG outperforms existing solutions by successfully decoupling the graph structure and node features, achieving improvements of over 5.46% (by MSE) for node feature reconstruction and over 25.04% (by AUC) for graph structure reconstruction.
- Abstract(参考訳): フェデレーショングラフ学習(FGL)は、複数のデータ所有者間で分散グラフ学習を可能にする、将来性のあるプライバシ保護パラダイムとして最近登場した。
連合学習における重要なプライバシー上の懸念は、敵が共有勾配から生データを復元できるかどうかである。
しかし、画像やテキストデータに焦点をあてたDLG問題に関するこれまでの研究は、特にグラフ構造やノードの特徴がGNNに一意に絡み合っている場合、グラフを効果的に復元できるかどうかに疑問が残る。
本稿では,まずFGLの成分を理論的に解析し,重要な洞察を得る。グラフ構造が回復すると,閉形式再帰則によりノード特徴が得られる。
この分析に基づいて,FGL の共有勾配から生の学習グラフを復元する新しい手法 GraphDLG を提案する。
大規模な実験では、グラフ構造とノード特徴の分離に成功し、ノード特徴再構成の5.46%以上(MSE)、グラフ構造再構成の25.04%以上(AUC)の改善を実現している。
関連論文リスト
- Dynamic Deep Graph Learning for Incomplete Multi-View Clustering with Masked Graph Reconstruction Loss [26.31060859315329]
textbfIncomplete textbfMulti-textbfView textbfClustering with textbfMasked Graph Reconstruction Loss (DGIMVCM)を提案する。
次に、グラフ畳み込み埋め込み層を設計し、主要な特徴を抽出し、動的なビュー固有のグラフ構造を洗練し、グローバルグラフを利用して、不足するビューの計算を行う。
論文 参考訳(メタデータ) (2025-11-14T11:26:38Z) - FedGIG: Graph Inversion from Gradient in Federated Learning [15.10812005682518]
本稿では、まず、GAAがFGL(Federated Graph Learning)に与える影響を考察し、FedGIG(Graph Inversion from Gradient in Federated Learning)を紹介する。
FedGIGはグラフ構造化データに特化して設計された新しいGIA手法である。
論文 参考訳(メタデータ) (2024-12-24T15:52:21Z) - Gradient Inversion Attack on Graph Neural Networks [11.075042582118963]
悪意のある攻撃者は、フェデレート学習中にニューラルネットワークの交換からプライベートイメージデータを盗むことができる。
本稿では,ノード分類タスクとグラフ分類タスクの両方において,リークした勾配からプライベートデータを再構成できるかどうかについて検討する。
広く使われている2つのGNNフレームワーク、すなわちGCNとGraphSAGEが分析されている。
論文 参考訳(メタデータ) (2024-11-29T02:42:17Z) - Community-Centric Graph Unlearning [10.906555492206959]
我々は、新しいグラフ構造マッピング・アンラーニング・パラダイム(GSMU)と、それに基づく新しい手法CGE(Community-centric Graph Eraser)を提案する。
CGEは、コミュニティのサブグラフをノードにマッピングすることで、少ないマップ付きグラフ内でノードレベルの未学習操作の再構築を可能にする。
論文 参考訳(メタデータ) (2024-08-19T05:37:35Z) - GraphEdit: Large Language Models for Graph Structure Learning [14.16155596597421]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。