論文の概要: GraphFedMIG: Tackling Class Imbalance in Federated Graph Learning via Mutual Information-Guided Generation
- arxiv url: http://arxiv.org/abs/2508.10471v1
- Date: Thu, 14 Aug 2025 09:16:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.248475
- Title: GraphFedMIG: Tackling Class Imbalance in Federated Graph Learning via Mutual Information-Guided Generation
- Title(参考訳): GraphFedMIG:相互情報誘導生成によるフェデレーショングラフ学習におけるクラス不均衡の解消
- Authors: Xinrui Li, Qilin Fan, Tianfu Wang, Kaiwen Wei, Ke Yu, Xu Zhang,
- Abstract要約: フェデレーショングラフ学習(FGL)は、複数のクライアントがプライベートな分散グラフデータを共有することなく、強力なグラフニューラルネットワークを協調的にトレーニングすることを可能にする。
本稿では,新たなFGLフレームワークであるGraphFedMIGを提案する。
実世界の4つのデータセットについて広範な実験を行い、提案したGraphFedMIGが他のベースラインと比較して優れていることを示す。
- 参考スコア(独自算出の注目度): 19.1700923188257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated graph learning (FGL) enables multiple clients to collaboratively train powerful graph neural networks without sharing their private, decentralized graph data. Inherited from generic federated learning, FGL is critically challenged by statistical heterogeneity, where non-IID data distributions across clients can severely impair model performance. A particularly destructive form of this is class imbalance, which causes the global model to become biased towards majority classes and fail at identifying rare but critical events. This issue is exacerbated in FGL, as nodes from a minority class are often surrounded by biased neighborhood information, hindering the learning of expressive embeddings. To grapple with this challenge, we propose GraphFedMIG, a novel FGL framework that reframes the problem as a federated generative data augmentation task. GraphFedMIG employs a hierarchical generative adversarial network where each client trains a local generator to synthesize high-fidelity feature representations. To provide tailored supervision, clients are grouped into clusters, each sharing a dedicated discriminator. Crucially, the framework designs a mutual information-guided mechanism to steer the evolution of these client generators. By calculating each client's unique informational value, this mechanism corrects the local generator parameters, ensuring that subsequent rounds of mutual information-guided generation are focused on producing high-value, minority-class features. We conduct extensive experiments on four real-world datasets, and the results demonstrate the superiority of the proposed GraphFedMIG compared with other baselines.
- Abstract(参考訳): フェデレーショングラフ学習(FGL)は、複数のクライアントがプライベートな分散グラフデータを共有することなく、強力なグラフニューラルネットワークを協調的にトレーニングすることを可能にする。
汎用的なフェデレーション学習から引き継がれたFGLは、クライアント間の非IIDデータ分散がモデル性能を著しく損なうという統計的不均一性によって批判的に挑戦される。
特に破壊的な形態はクラス不均衡であり、これはグローバルモデルが多数派に偏りを抱き、稀だが重要な事象を特定するのに失敗する原因となる。
マイノリティクラスのノードは、しばしばバイアスのある近隣情報に囲まれ、表現的な埋め込みの学習を妨げるため、この問題はFGLで悪化する。
この課題に対処するため,我々は新しいFGLフレームワークであるGraphFedMIGを提案する。
GraphFedMIGは階層的生成対向ネットワークを使用し、各クライアントはローカルジェネレータを訓練して高忠実度特徴表現を合成する。
カスタマイズされた監視を提供するために、クライアントはクラスタにグループ化され、それぞれが専用の識別器を共有する。
重要な点として、このフレームワークはクライアントジェネレータの進化を制御するための相互情報誘導機構を設計する。
それぞれのクライアントのユニークな情報値を計算することで、このメカニズムはローカルなジェネレータパラメータを補正し、その後の相互情報誘導世代が高価値でマイノリティな特徴を生み出すことに重点を置いていることを保証します。
実世界の4つのデータセットについて広範な実験を行い、提案したGraphFedMIGが他のベースラインと比較して優れていることを示す。
関連論文リスト
- FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - FedGL: Federated Graph Learning Framework with Global Self-Supervision [22.124339267195822]
FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
論文 参考訳(メタデータ) (2021-05-07T11:27:23Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。