論文の概要: Communication-efficient Federated Graph Classification via Generative Diffusion Modeling
- arxiv url: http://arxiv.org/abs/2601.15722v1
- Date: Thu, 22 Jan 2026 07:46:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.530617
- Title: Communication-efficient Federated Graph Classification via Generative Diffusion Modeling
- Title(参考訳): 生成拡散モデルによるコミュニケーション効率の良いフェデレーショングラフ分類
- Authors: Xiuling Wang, Xin Huang, Haibo Hu, Jianliang Xu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データから新たな学習方法を解放し、複雑な関係やパターンを捉えるのに非常に効果的なことを証明している。
FGNNは、複数のパラメータ交換ラウンドからの高い通信オーバーヘッドと、クライアント間での非IIDデータ特性の2つの大きな課題に直面している。
我々は,サーバとクライアント間の通信を3ラウンドに制限することで,非IIDデータに対する効率的なGNNトレーニングを容易にする新しいFGNNパラダイムであるCeFGCを紹介する。
- 参考スコア(独自算出の注目度): 20.26837995333675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) unlock new ways of learning from graph-structured data, proving highly effective in capturing complex relationships and patterns. Federated GNNs (FGNNs) have emerged as a prominent distributed learning paradigm for training GNNs over decentralized data. However, FGNNs face two significant challenges: high communication overhead from multiple rounds of parameter exchanges and non-IID data characteristics across clients. To address these issues, we introduce CeFGC, a novel FGNN paradigm that facilitates efficient GNN training over non-IID data by limiting communication between the server and clients to three rounds only. The core idea of CeFGC is to leverage generative diffusion models to minimize direct client-server communication. Each client trains a generative diffusion model that captures its local graph distribution and shares this model with the server, which then redistributes it back to all clients. Using these generative models, clients generate synthetic graphs combined with their local graphs to train local GNN models. Finally, clients upload their model weights to the server for aggregation into a global GNN model. We theoretically analyze the I/O complexity of communication volume to show that CeFGC reduces to a constant of three communication rounds only. Extensive experiments on several real graph datasets demonstrate the effectiveness and efficiency of CeFGC against state-of-the-art competitors, reflecting our superior performance on non-IID graphs by aligning local and global model objectives and enriching the training set with diverse graphs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから新たな学習方法を解放し、複雑な関係やパターンを捉えるのに非常に効果的なことを証明している。
フェデレーションGNN(Federated GNN)は、分散データよりもGNNを訓練するための著名な分散学習パラダイムとして登場した。
しかし、FGNNは、複数のパラメータ交換ラウンドからの高い通信オーバーヘッドと、クライアント間での非IIDデータ特性の2つの大きな課題に直面している。
これらの問題に対処するため,サーバとクライアント間の通信を3ラウンドに制限することで,非IIDデータに対する効率的なGNNトレーニングを容易にする新しいFGNNパラダイムであるCeFGCを紹介した。
CeFGCの中核となる考え方は、生成拡散モデルを利用してクライアントとサーバの直接通信を最小化することである。
各クライアントは、そのローカルグラフの分布をキャプチャし、このモデルをサーバと共有する生成拡散モデルをトレーニングし、それをすべてのクライアントに再配布する。
これらの生成モデルを用いて、クライアントは局所グラフと組み合わせて合成グラフを生成し、局所的なGNNモデルを訓練する。
最後に、クライアントはモデルの重み付けをサーバにアップロードし、グローバルなGNNモデルに集約する。
本稿では,CeFGCの通信容量のI/O複雑性を理論的に解析し,CeFGCが3ラウンドの通信ラウンドのみに減少することを示す。
いくつかの実グラフデータセットに対する大規模な実験は、CeFGCが最先端の競合相手に対して有効かつ効果的であることを示し、局所的およびグローバルなモデルの目的を整列させ、多様なグラフでトレーニングセットを充実させることにより、非IIDグラフ上での優れた性能を反映している。
関連論文リスト
- GraphFedMIG: Tackling Class Imbalance in Federated Graph Learning via Mutual Information-Guided Generation [19.1700923188257]
フェデレーショングラフ学習(FGL)は、複数のクライアントがプライベートな分散グラフデータを共有することなく、強力なグラフニューラルネットワークを協調的にトレーニングすることを可能にする。
本稿では,新たなFGLフレームワークであるGraphFedMIGを提案する。
実世界の4つのデータセットについて広範な実験を行い、提案したGraphFedMIGが他のベースラインと比較して優れていることを示す。
論文 参考訳(メタデータ) (2025-08-14T09:16:56Z) - FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Federated Prototype Graph Learning [33.38948169766356]
Federated Graph Learning (FGL)は、その分散トレーニング機能に大きな注目を集めている。
FEMAIL: 上記の多レベルFGLの不均一性に対する一般プロトタイプ誘導最適化法としてFedPGを提案する。
実験により,FedPGは平均3.57%の精度でSOTAベースラインを上回り,通信コストを168倍に削減した。
論文 参考訳(メタデータ) (2025-04-13T09:21:21Z) - Knowledge-Driven Federated Graph Learning on Model Heterogeneity [47.98634086448171]
FGL(Federated Graph Learning)は、協調グラフ表現学習において、有望なパラダイムとして登場した。
本稿では,FedGKC(Federated Graph Knowledge Collaboration)フレームワークを提案する。
FedGKCは、MHtFGLシナリオのベースラインよりも平均3.74%の精度向上を実現し、均一な設定では優れたパフォーマンスを維持している。
論文 参考訳(メタデータ) (2025-01-22T04:12:32Z) - Federated Graph Learning with Graphless Clients [52.5629887481768]
FGL(Federated Graph Learning)は、グラフニューラルネットワーク(GNN)などの機械学習モデルをトレーニングするタスクである。
グラフレスクライアントを用いたFGLにおける問題に対処するための新しいフレームワークFedGLSを提案する。
論文 参考訳(メタデータ) (2024-11-13T06:54:05Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - GLASU: A Communication-Efficient Algorithm for Federated Learning with
Vertically Distributed Graph Data [44.02629656473639]
本稿では,クライアントとサーバ間でバックボーンGNNを分割するモデル分割手法と通信効率のよいGLASUを提案する。
提案アルゴリズムは,実世界のデータセットに対する理論的解析と広範な数値実験を行い,中央集権的な学習を行うと,バックボーンのGNNと性能が一致するGNNモデルを効果的に訓練することを示した。
論文 参考訳(メタデータ) (2023-03-16T17:47:55Z) - FedGCN: Convergence-Communication Tradeoffs in Federated Training of
Graph Convolutional Networks [14.824579000821272]
我々はフェデレートグラフ畳み込みネットワーク(FedGCN)アルゴリズムを導入し、フェデレーション学習を用いてGCNモデルを訓練し、半教師付きノード分類を行う。
各トレーニングラウンドでクライアント間の余分な通信を必要とする従来の方法と比較して、FedGCNクライアントはトレーニング前の1ステップで中央サーバとのみ通信する。
実験の結果,FedGCNアルゴリズムは平均収束率51.7%,通信速度100倍の精度でモデル精度が向上した。
論文 参考訳(メタデータ) (2022-01-28T21:39:16Z) - ASFGNN: Automated Separated-Federated Graph Neural Network [17.817867271722093]
本稿では,ASFGNN学習パラダイムを提案する。
我々は,ベンチマークデータセットの実験を行い,ASFGNNが有望なフェデレーションGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-06T09:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。