論文の概要: Rethinking Personalized Federated Learning with Clustering-based Dynamic
Graph Propagation
- arxiv url: http://arxiv.org/abs/2401.15874v1
- Date: Mon, 29 Jan 2024 04:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:01:32.189541
- Title: Rethinking Personalized Federated Learning with Clustering-based Dynamic
Graph Propagation
- Title(参考訳): クラスタリングに基づく動的グラフ伝播による個人化フェデレーション学習の再考
- Authors: Jiaqi Wang, Yuzhong Chen, Yuhang Wu, Mahashweta Das, Hao Yang,
Fenglong Ma
- Abstract要約: 本稿では,シンプルながら効果的に個人化できるフェデレーション学習フレームワークを提案する。
私たちは、クライアントをモデルトレーニングステータスとサーバ側のデータ分散に基づいて、複数のクラスタにグループ化します。
我々は3種類の画像ベンチマークデータセットの実験を行い、3種類のタイプで合成されたデータセットを作成する。
- 参考スコア(独自算出の注目度): 48.08348593449897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing personalized federated learning approaches are based on
intricate designs, which often require complex implementation and tuning. In
order to address this limitation, we propose a simple yet effective
personalized federated learning framework. Specifically, during each
communication round, we group clients into multiple clusters based on their
model training status and data distribution on the server side. We then
consider each cluster center as a node equipped with model parameters and
construct a graph that connects these nodes using weighted edges. Additionally,
we update the model parameters at each node by propagating information across
the entire graph. Subsequently, we design a precise personalized model
distribution strategy to allow clients to obtain the most suitable model from
the server side. We conduct experiments on three image benchmark datasets and
create synthetic structured datasets with three types of typologies.
Experimental results demonstrate the effectiveness of the proposed work.
- Abstract(参考訳): 既存のパーソナライズされた連合学習アプローチのほとんどは、複雑な実装とチューニングを必要とする複雑な設計に基づいている。
この制限に対処するために、我々はシンプルながら効果的にパーソナライズされたフェデレーション学習フレームワークを提案する。
具体的には、各通信ラウンドにおいて、モデルトレーニングステータスとサーバ側のデータ分散に基づいて、クライアントを複数のクラスタにグループ化する。
次に、各クラスタセンターをモデルパラメータを備えたノードとみなし、重み付きエッジを用いてこれらのノードを接続するグラフを構築する。
さらに、グラフ全体に情報を伝播することにより、各ノードのモデルパラメータを更新する。
その後、クライアントがサーバ側から最適なモデルを得ることができるように、正確なパーソナライズされたモデル配布戦略を設計する。
我々は3種類の画像ベンチマークデータセットの実験を行い、3種類のタイプで合成されたデータセットを作成する。
実験の結果,提案手法の有効性が示された。
関連論文リスト
- GraphFM: A Scalable Framework for Multi-Graph Pretraining [2.882104808886318]
本稿では,さまざまな領域のグラフデータセットにまたがるノード分類タスクに適した,スケーラブルなマルチグラフ・マルチタスク事前学習手法を提案する。
我々は,740万以上のノードと1億1900万のエッジからなる152のグラフデータセットのモデルをトレーニングすることで,このアプローチの有効性を実証する。
以上の結果から,多種多様な実・合成グラフの事前学習により適応性と安定性が向上し,最先端のスペシャリストモデルと競合する結果が得られた。
論文 参考訳(メタデータ) (2024-07-16T16:51:43Z) - FedSheafHN: Personalized Federated Learning on Graph-structured Data [22.825083541211168]
我々はFedSheafHNと呼ばれるモデルを提案し、各クライアントのローカルサブグラフをサーバ構築コラボレーショングラフに埋め込む。
我々のモデルは複雑なクライアント特性の統合と解釈を改善します。
また、高速なモデル収束と効果的な新しいクライアントの一般化も備えている。
論文 参考訳(メタデータ) (2024-05-25T04:51:41Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Efficient Automatic Machine Learning via Design Graphs [72.85976749396745]
最適なモデル設計を探索する効率的なサンプルベース手法であるFALCONを提案する。
FALCONは,1)グラフニューラルネットワーク(GNN)を介してデザイングラフ上でメッセージパッシングを行うタスク非依存モジュール,2)既知のモデル性能情報のラベル伝搬を行うタスク固有モジュールを特徴とする。
FALCONは,30個の探索ノードのみを用いて,各タスクに対して良好な性能を持つ設計を効率的に得ることを実証的に示す。
論文 参考訳(メタデータ) (2022-10-21T21:25:59Z) - Graph-Assisted Communication-Efficient Ensemble Federated Learning [12.538755088321404]
コミュニケーション効率は、限られた通信帯域幅のため、連合学習において必要となる。
サーバは事前訓練されたモデルのサブセットを選択し、グラフの構造に基づいてアンサンブルモデルを構築する。
選択されたモデルのみがクライアントに送信されるため、特定の予算制約に違反しない。
論文 参考訳(メタデータ) (2022-02-27T20:25:44Z) - Improving Label Quality by Jointly Modeling Items and Annotators [68.8204255655161]
雑音アノテータから基底真理ラベルを学習するための完全ベイズ的枠組みを提案する。
我々のフレームワークは、ラベル分布上の生成的ベイズソフトクラスタリングモデルを古典的なDavidとSkeneのジョイントアノテータデータモデルに分解することでスケーラビリティを保証する。
論文 参考訳(メタデータ) (2021-06-20T02:15:20Z) - Personalized Federated Learning by Structured and Unstructured Pruning
under Data Heterogeneity [3.291862617649511]
クライアントレベルの目的からパーソナライズされたモデルを得るための新しいアプローチを提案する。
このパーソナライズを実現するために、各クライアントの小さなサブネットワークを見つける。
論文 参考訳(メタデータ) (2021-05-02T22:10:46Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。