論文の概要: Rethinking Client-oriented Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2504.14188v2
- Date: Thu, 14 Aug 2025 06:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 15:52:16.856058
- Title: Rethinking Client-oriented Federated Graph Learning
- Title(参考訳): クライアント指向のフェデレーショングラフ学習の再考
- Authors: Zekai Chen, Xunkai Li, Yinlin Zhu, Rong-Hua Li, Guoren Wang,
- Abstract要約: Federated Graph Learning (FGL)は、ローカルシステム間の協調モデルトレーニングを容易にする。
FedC4はグラフ凝縮技術を用いて、各クライアントのグラフの知識をいくつかの合成埋め込みに洗練する。
3つの新しいモジュールにより、ソースクライアントはターゲットクライアントのグラフプロパティに合わせて異なるノード表現を送信できる。
- 参考スコア(独自算出の注目度): 27.58612255363227
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As a new distributed graph learning paradigm, Federated Graph Learning (FGL) facilitates collaborative model training across local systems while preserving data privacy. We review existing FGL approaches and categorize their optimization mechanisms into: (1) Server-Client (S-C), where clients upload local model parameters for server-side aggregation and global updates; (2) Client-Client (C-C), which allows direct exchange of information between clients and customizing their local training process. We reveal that C-C shows superior potential due to its refined communication structure. However, existing C-C methods broadcast redundant node representations, incurring high communication costs and privacy risks at the node level. To this end, we propose FedC4, which combines graph Condensation with C-C Collaboration optimization. Specifically, FedC4 employs graph condensation technique to refine the knowledge of each client's graph into a few synthetic embeddings instead of transmitting node-level knowledge. Moreover, FedC4 introduces three novel modules that allow the source client to send distinct node representations tailored to the target client's graph properties. Experiments on eight public real-world datasets show that FedC4 outperforms state-of-the-art baselines in both task performance and communication cost. Our code is now available on https://github.com/Ereshkigal1/FedC4.
- Abstract(参考訳): 新たな分散グラフ学習パラダイムとして、フェデレートグラフ学習(FGL)は、データのプライバシを保持しながら、ローカルシステム間の協調的なモデルトレーニングを促進する。
1)サーバサイドアグリゲーションとグローバルアップデートのためのローカルモデルパラメータをアップロードするサーバクライアント(S-C)、(2)クライアント間で情報を直接交換し、ローカルトレーニングプロセスをカスタマイズするクライアントクライアント(C-C)である。
C-Cは, 通信構造が洗練されているため, 優れた可能性を示す。
しかし、既存のC-C方式では冗長なノード表現をブロードキャストし、ノードレベルで高い通信コストとプライバシーリスクを発生させる。
この目的のために,グラフ凝縮とC-C協調最適化を組み合わせたFedC4を提案する。
具体的には、FedC4はグラフ凝縮技術を使用して、各クライアントのグラフの知識をノードレベルの知識を伝達する代わりに、いくつかの合成埋め込みに洗練する。
さらに、FedC4では、ソースクライアントがターゲットクライアントのグラフプロパティに合わせて異なるノード表現を送信できるようにする3つの新しいモジュールが導入されている。
8つのパブリックな実世界のデータセットの実験によると、FedC4はタスクパフォーマンスと通信コストの両方で最先端のベースラインを上回っている。
私たちのコードはhttps://github.com/Ereshkigal1/FedC4で利用可能です。
関連論文リスト
- Learning to Collaborate Over Graphs: A Selective Federated Multi-Task Learning Approach [34.756818299081736]
本稿では,クライアント毎にパーソナライズされた学習を可能にするために,クライアント間の類似性を活用した新しいマルチタスク学習手法を提案する。
本稿では,クライアントのローカルクラスから学んだ特徴を要約したコンパクトなベクトル表現である特徴アンカーを導入する通信効率の高いスキームを提案する。
さらに、クライアントは分類ヘッド、軽量の線形層を共有し、グラフベースの正規化を実行し、クライアント間のコラボレーションを可能にする。
論文 参考訳(メタデータ) (2025-06-11T18:39:18Z) - FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Federated Prototype Graph Learning [33.38948169766356]
Federated Graph Learning (FGL)は、その分散トレーニング機能に大きな注目を集めている。
FEMAIL: 上記の多レベルFGLの不均一性に対する一般プロトタイプ誘導最適化法としてFedPGを提案する。
実験により,FedPGは平均3.57%の精度でSOTAベースラインを上回り,通信コストを168倍に削減した。
論文 参考訳(メタデータ) (2025-04-13T09:21:21Z) - Personalized Federated Learning via Learning Dynamic Graphs [4.569473641235369]
グラフ注意ネットワークを用いた個人化フェデレーション学習(pFedGAT)を提案する。
pFedGATは、クライアント間の潜伏グラフ構造をキャプチャし、クライアントごとに他のクライアントの重要性を動的に決定し、集約プロセスのきめ細かい制御を可能にする。
pFedGATを複数のデータ分散シナリオで評価し、3つのデータセット上でのアートメソッドの12の状態と比較した。
論文 参考訳(メタデータ) (2025-03-07T14:47:03Z) - Communication-Efficient Personalized Federal Graph Learning via Low-Rank Decomposition [18.99572321624751]
通信効率の高いグラフ学習アルゴリズムであるCEFGLを提案する。
提案手法は,モデルパラメータを低ランクなジェネリックモデルとスパースなプライベートモデルに分解する。
局所的な知識をパーソナライズされた方法で学習するために,デュアルチャネルエンコーダを用いる。
論文 参考訳(メタデータ) (2024-12-18T02:26:07Z) - Federated Graph Learning with Graphless Clients [52.5629887481768]
FGL(Federated Graph Learning)は、グラフニューラルネットワーク(GNN)などの機械学習モデルをトレーニングするタスクである。
グラフレスクライアントを用いたFGLにおける問題に対処するための新しいフレームワークFedGLSを提案する。
論文 参考訳(メタデータ) (2024-11-13T06:54:05Z) - Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - Personalized Federated Knowledge Graph Embedding with Client-Wise Relation Graph [49.66272783945571]
クライアント関係グラフを用いた個人化フェデレーション知識グラフを提案する。
PFedEGは、近隣のクライアントから埋め込まれたエンティティを集約することで、各クライアントに対してパーソナライズされた補完知識を学習する。
我々は4つのベンチマークデータセットの広範な実験を行い、その手法を最先端モデルに対して評価する。
論文 参考訳(メタデータ) (2024-06-17T17:44:53Z) - FedSheafHN: Personalized Federated Learning on Graph-structured Data [22.825083541211168]
我々はFedSheafHNと呼ばれるモデルを提案し、各クライアントのローカルサブグラフをサーバ構築コラボレーショングラフに埋め込む。
我々のモデルは複雑なクライアント特性の統合と解釈を改善します。
また、高速なモデル収束と効果的な新しいクライアントの一般化も備えている。
論文 参考訳(メタデータ) (2024-05-25T04:51:41Z) - APGL4SR: A Generic Framework with Adaptive and Personalized Global
Collaborative Information in Sequential Recommendation [86.29366168836141]
逐次推薦のための適応およびパーソナライズされたグラフ学習(APGL4SR)というグラフ駆動型フレームワークを提案する。
APGL4SRは、適応的でパーソナライズされたグローバルな協調情報をシーケンシャルレコメンデーションシステムに組み込む。
一般的なフレームワークとして、APGL4SRは大きなマージンを持つ他のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-06T01:33:24Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - FedGCN: Convergence-Communication Tradeoffs in Federated Training of
Graph Convolutional Networks [14.824579000821272]
我々はフェデレートグラフ畳み込みネットワーク(FedGCN)アルゴリズムを導入し、フェデレーション学習を用いてGCNモデルを訓練し、半教師付きノード分類を行う。
各トレーニングラウンドでクライアント間の余分な通信を必要とする従来の方法と比較して、FedGCNクライアントはトレーニング前の1ステップで中央サーバとのみ通信する。
実験の結果,FedGCNアルゴリズムは平均収束率51.7%,通信速度100倍の精度でモデル精度が向上した。
論文 参考訳(メタデータ) (2022-01-28T21:39:16Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。