論文の概要: Federated Prototype Graph Learning
- arxiv url: http://arxiv.org/abs/2504.09493v1
- Date: Sun, 13 Apr 2025 09:21:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:53:37.682897
- Title: Federated Prototype Graph Learning
- Title(参考訳): フェデレートされたプロトタイプグラフ学習
- Authors: Zhengyu Wu, Xunkai Li, Yinlin Zhu, Rong-Hua Li, Guoren Wang, Chenghu Zhou,
- Abstract要約: Federated Graph Learning (FGL)は、その分散トレーニング機能に大きな注目を集めている。
FEMAIL: 上記の多レベルFGLの不均一性に対する一般プロトタイプ誘導最適化法としてFedPGを提案する。
実験により,FedPGは平均3.57%の精度でSOTAベースラインを上回り,通信コストを168倍に削減した。
- 参考スコア(独自算出の注目度): 33.38948169766356
- License:
- Abstract: In recent years, Federated Graph Learning (FGL) has gained significant attention for its distributed training capabilities in graph-based machine intelligence applications, mitigating data silos while offering a new perspective for privacy-preserve large-scale graph learning. However, multi-level FGL heterogeneity presents various client-server collaboration challenges: (1) Model-level: The variation in clients for expected performance and scalability necessitates the deployment of heterogeneous models. Unfortunately, most FGL methods rigidly demand identical client models due to the direct model weight aggregation on the server. (2) Data-level: The intricate nature of graphs, marked by the entanglement of node profiles and topology, poses an optimization dilemma. This implies that models obtained by federated training struggle to achieve superior performance. (3) Communication-level: Some FGL methods attempt to increase message sharing among clients or between clients and the server to improve training, which inevitably leads to high communication costs. In this paper, we propose FedPG as a general prototype-guided optimization method for the above multi-level FGL heterogeneity. Specifically, on the client side, we integrate multi-level topology-aware prototypes to capture local graph semantics. Subsequently, on the server side, leveraging the uploaded prototypes, we employ topology-guided contrastive learning and personalized technology to tailor global prototypes for each client, broadcasting them to improve local training. Experiments demonstrate that FedPG outperforms SOTA baselines by an average of 3.57\% in accuracy while reducing communication costs by 168x.
- Abstract(参考訳): 近年、フェデレートグラフラーニング(FGL)は、グラフベースのマシンインテリジェンスアプリケーションにおける分散トレーニング機能に大きな注目を集め、データサイロを緩和するとともに、プライバシ保護による大規模グラフラーニングの新しい視点を提供している。
1) モデルレベル: 期待されるパフォーマンスとスケーラビリティのためのクライアントの変化は、異種モデルのデプロイを必要とします。
残念なことに、ほとんどのFGLメソッドは、サーバ上の直接モデル重み付けのため、厳格に同一のクライアントモデルを要求します。
2) データレベル:ノードプロファイルとトポロジーの絡み合いを特徴とするグラフの複雑な性質は、最適化ジレンマを生じさせる。
これは、フェデレーショントレーニングによって得られたモデルは、優れたパフォーマンスを達成するために苦労することを意味する。
(3) コミュニケーションレベル: クライアント間やクライアントとサーバ間のメッセージ共有を向上してトレーニングを改善するFGL手法がある。
本稿では,上記の多レベルFGLの不均一性に対するプロトタイプ誘導最適化手法としてFedPGを提案する。
具体的には、クライアント側で、ローカルグラフのセマンティクスをキャプチャするために、マルチレベルトポロジ対応のプロトタイプを統合する。
その後、サーバ側では、アップロードされたプロトタイプを活用して、トポロジに基づくコントラスト学習とパーソナライズ技術を用いて、各クライアントのグローバルプロトタイプをカスタマイズし、ローカルトレーニングを改善するためにブロードキャストする。
実験により、FedPGは平均3.57倍の精度でSOTAベースラインを上回り、通信コストを168倍に削減した。
関連論文リスト
- Toward Model-centric Heterogeneous Federated Graph Learning: A Knowledge-driven Approach [15.747994926672868]
FGL(Federated Graph Learning)は、協調的な機械学習のための有望なパラダイムとして登場した。
MHtFGL問題は、様々な企業のモデルの集約など、現実世界のアプリケーションで発生する。
本稿では,2つの主要コンポーネントからなるフェデレートグラフ知識コラボレーション(FedGKC)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-22T04:12:32Z) - Communication-Efficient Personalized Federal Graph Learning via Low-Rank Decomposition [18.99572321624751]
通信効率の高いグラフ学習アルゴリズムであるCEFGLを提案する。
提案手法は,モデルパラメータを低ランクなジェネリックモデルとスパースなプライベートモデルに分解する。
局所的な知識をパーソナライズされた方法で学習するために,デュアルチャネルエンコーダを用いる。
論文 参考訳(メタデータ) (2024-12-18T02:26:07Z) - Towards Federated Graph Learning in One-shot Communication [27.325478113745206]
Federated Graph Learning(FGL)は、分散プライベートグラフ間のデータサイロを壊すための有望なパラダイムとして登場した。
ワンショットフェデレートラーニング(OFL)は1ラウンドでのコラボレーションを可能にするが、既存のOFLメソッドはグラフデータには有効ではない。
本稿では,ノード分類のための最初の$textbfO-pFGL$メソッド(textbfO-pFGL$)を提案する。
論文 参考訳(メタデータ) (2024-11-18T05:59:29Z) - SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation [16.599474223790843]
Federated Graph Learning (FGL)は、分類タスクのために複数のクライアントで協調的なトレーニングを可能にすることで、広く注目を集めている。
本研究では,エッジ・クライアント・コラボレーションにおける情報フローの促進を目的とした新しいFGLフレームワークSpreadFGLを提案する。
本研究では,SpreadFGLが最先端のアルゴリズムに対して精度が高く,より高速な収束を実現することを示す。
論文 参考訳(メタデータ) (2024-07-14T09:34:19Z) - FedSheafHN: Personalized Federated Learning on Graph-structured Data [22.825083541211168]
我々はFedSheafHNと呼ばれるモデルを提案し、各クライアントのローカルサブグラフをサーバ構築コラボレーショングラフに埋め込む。
我々のモデルは複雑なクライアント特性の統合と解釈を改善します。
また、高速なモデル収束と効果的な新しいクライアントの一般化も備えている。
論文 参考訳(メタデータ) (2024-05-25T04:51:41Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。