論文の概要: Federated Graph Condensation with Information Bottleneck Principles
- arxiv url: http://arxiv.org/abs/2405.03911v1
- Date: Tue, 7 May 2024 00:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 15:48:10.760408
- Title: Federated Graph Condensation with Information Bottleneck Principles
- Title(参考訳): 情報ボトルネック原理によるフェデレーショングラフの凝縮
- Authors: Bo Yan,
- Abstract要約: グラフニューラルネットワーク(GNN)におけるフェデレーショングラフ凝縮の新しい問題を提案し,研究する。
グラフ凝縮の典型的な勾配マッチングプロセスをクライアント側勾配計算とサーバ側勾配マッチングに分離する。
私たちのフレームワークは、トレーニング中のメンバシップのプライバシを一貫して保護することができます。
- 参考スコア(独自算出の注目度): 5.290256742148535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph condensation, which reduces the size of a large-scale graph by synthesizing a small-scale condensed graph as its substitution, has immediately benefited various graph learning tasks. However, existing graph condensation methods rely on centralized data storage, which is unfeasible for real-world decentralized data distribution, and overlook data holders' privacy-preserving requirements. To bridge the gap, we propose and study the novel problem of federated graph condensation for graph neural networks (GNNs). Specifically, we first propose a general framework for federated graph condensation, in which we decouple the typical gradient matching process for graph condensation into client-side gradient calculation and server-side gradient matching. In this way, the burdensome computation cost in client-side is largely alleviated. Besides, our empirical studies show that under the federated setting, the condensed graph will consistently leak data membership privacy, i.e., the condensed graph during the federated training can be utilized to steal the training data under the membership inference attacks (MIA). To tackle this issue, we innovatively incorporate information bottleneck principles into the federated graph condensation, which only needs to extract partial node features in one local pre-training step and utilize the features during federated training. Extensive experiments on real-world datasets demonstrate that our framework can consistently protect membership privacy during training. Meanwhile, it also achieves comparable and even superior performance against existing centralized graph condensation and federated graph learning methods.
- Abstract(参考訳): グラフ凝縮は、小さな縮合グラフを置換として合成することで、大規模グラフのサイズを小さくするが、すぐに様々なグラフ学習タスクの恩恵を受けている。
しかし、既存のグラフ凝縮法は、実際の分散データ配信では不可能な集中データストレージと、データ保持者のプライバシ保護要件に頼っている。
このギャップを埋めるために,グラフニューラルネットワーク(GNN)におけるフェデレーショングラフ凝縮の新たな問題を提案し,検討する。
具体的には、まず、グラフ凝縮の典型的な勾配マッチングプロセスをクライアント側勾配計算とサーバ側勾配マッチングに分離する、連合グラフ凝縮のための一般的なフレームワークを提案する。
このようにして、クライアント側の負担のかかる計算コストは、ほとんど軽減されます。
さらに,我々の実証実験により, 凝縮グラフは, フェデレーション設定下において, 常にデータメンバーシップのプライバシーを漏らし, すなわち, フェデレーショントレーニング中の凝縮グラフを, メンバーシップ推論攻撃(MIA)下でのトレーニングデータを盗むことができることを示した。
この問題に対処するために,我々は,情報ボトルネックの原理をフェデレートグラフ縮合に革新的に取り入れる。これは,局所的な事前学習段階において部分ノードの特徴を抽出し,フェデレーショントレーニング中に特徴を利用する必要がある。
実世界のデータセットに関する大規模な実験は、我々のフレームワークがトレーニング中にメンバーシップのプライバシを一貫して保護できることを示しています。
一方、既存の集中型グラフ凝縮法やフェデレーション付きグラフ学習法に対して、同等で優れたパフォーマンスを実現している。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [47.74244053386216]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - Federated Hypergraph Learning: Hyperedge Completion with Local Differential Privacy [6.295242666794106]
FedHGLは、複数のクライアントにわたる包括的なハイパーグラフニューラルネットワークを協調的にトレーニングするように設計されている。
クロスクライアント機能アグリゲーションは中央サーバで実行され、クライアントがこの情報を活用できるように配布される。
論文 参考訳(メタデータ) (2024-08-09T16:31:41Z) - Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。