論文の概要: Federated Graph Condensation with Information Bottleneck Principles
- arxiv url: http://arxiv.org/abs/2405.03911v4
- Date: Fri, 20 Dec 2024 07:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:22:28.335826
- Title: Federated Graph Condensation with Information Bottleneck Principles
- Title(参考訳): 情報ボトルネック原理によるフェデレーショングラフの凝縮
- Authors: Bo Yan, Sihao He, Cheng Yang, Shang Liu, Yang Cao, Chuan Shi,
- Abstract要約: グラフニューラルネットワーク(GNN)のためのFGC(Federated Graph Condensation)の新たな問題を提案し,研究する。
フェデレートされた設定の下では、凝縮グラフは一貫してデータメンバーシップのプライバシーをリークする。
私たちのフレームワークは、トレーニング中のメンバシップのプライバシを一貫して保護します。
- 参考スコア(独自算出の注目度): 44.404509071881364
- License:
- Abstract: Graph condensation (GC), which reduces the size of a large-scale graph by synthesizing a small-scale condensed graph as its substitution, has benefited various graph learning tasks. However, existing GC methods rely on centralized data storage, which is unfeasible for real-world decentralized data distribution, and overlook data holders' privacy-preserving requirements. To bridge this gap, we propose and study the novel problem of federated graph condensation (FGC) for graph neural networks (GNNs). Specifically, we first propose a general framework for FGC, where we decouple the typical gradient matching process for GC into client-side gradient calculation and server-side gradient matching, integrating knowledge from multiple clients' subgraphs into one smaller condensed graph. Nevertheless, our empirical studies show that under the federated setting, the condensed graph will consistently leak data membership privacy, i.e., the condensed graph during federated training can be utilized to steal training data under the membership inference attack (MIA). To tackle this issue, we innovatively incorporate information bottleneck principles into the FGC, which only needs to extract partial node features in one local pre-training step and utilize the features during federated training. Theoretical and experimental analyses demonstrate that our framework consistently protects membership privacy during training. Meanwhile, it can achieve comparable and even superior performance against existing centralized GC and federated graph learning (FGL) methods.
- Abstract(参考訳): グラフ凝縮 (GC) は, グラフの置換として小型凝縮グラフを合成することにより, 大規模グラフのサイズを小さくし, 様々なグラフ学習タスクの恩恵を受けている。
しかし、既存のGCメソッドは、実際の分散データ配信では不可能な集中データストレージに依存しており、データ保持者のプライバシ保護要件を見落としている。
このギャップを埋めるために,グラフニューラルネットワーク(GNN)におけるFGC(Federated Graph Condensation)の新たな問題を提案し,検討する。
具体的には、まずFGCのための一般的なフレームワークを提案し、GCの典型的な勾配マッチングプロセスをクライアント側勾配計算とサーバ側勾配マッチングに分離し、複数のクライアントのサブグラフからの知識を1つのより小さな凝縮グラフに統合する。
それにもかかわらず、我々の実証的研究は、フェデレーション環境では、凝縮グラフがデータメンバーシップのプライバシを一貫してリークすることを示し、すなわち、フェデレーショントレーニング中の凝縮グラフは、メンバシップ推論攻撃(MIA)の下でトレーニングデータを盗むことができる。
この問題に対処するために,我々はFGCに情報ボトルネックの原則を革新的に取り入れた。
理論的および実験的分析により、我々のフレームワークはトレーニング中のメンバーシッププライバシを一貫して保護していることが示された。
一方、既存の集中型GCとFGL(Federated Graph Learning)メソッドに対して、同等で優れたパフォーマンスを実現することができる。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [47.74244053386216]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - Federated Hypergraph Learning: Hyperedge Completion with Local Differential Privacy [6.295242666794106]
FedHGLは、複数のクライアントにわたる包括的なハイパーグラフニューラルネットワークを協調的にトレーニングするように設計されている。
クロスクライアント機能アグリゲーションは中央サーバで実行され、クライアントがこの情報を活用できるように配布される。
論文 参考訳(メタデータ) (2024-08-09T16:31:41Z) - Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。