論文の概要: DAG-ACFL: Asynchronous Clustered Federated Learning based on DAG-DLT
- arxiv url: http://arxiv.org/abs/2308.13158v1
- Date: Fri, 25 Aug 2023 03:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 15:23:14.038025
- Title: DAG-ACFL: Asynchronous Clustered Federated Learning based on DAG-DLT
- Title(参考訳): DAG-ACFL:DAG-DLTに基づく非同期クラスタ化フェデレーション学習
- Authors: Xiaofeng Xue, Haokun Mao and Qiong Li
- Abstract要約: フェデレートラーニング(FL)は、クライアントデータのプライバシを確保しながら、グローバルモデルを協調的にトレーニングすることを目的としている。
有向非巡回グラフ分散台帳技術(DAG-DLT)に基づく非同期クラスタリングFLフレームワークDAG-ACFLを提案する。
複数のデータセット上でのDAG-ACFLのクラスタリングとトレーニング性能を評価し,通信とストレージのコストを分析した。
- 参考スコア(独自算出の注目度): 5.819679865834583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) aims to collaboratively train a global model while
ensuring client data privacy. However, FL faces challenges from the non-IID
data distribution among clients. Clustered FL (CFL) has emerged as a promising
solution, but most existing CFL frameworks adopt synchronous frameworks lacking
asynchrony. An asynchronous CFL framework called SDAGFL based on directed
acyclic graph distributed ledger techniques (DAG-DLT) was proposed, but its
complete decentralization leads to high communication and storage costs. We
propose DAG-ACFL, an asynchronous clustered FL framework based on directed
acyclic graph distributed ledger techniques (DAG-DLT). We first detail the
components of DAG-ACFL. A tip selection algorithm based on the cosine
similarity of model parameters is then designed to aggregate models from
clients with similar distributions. An adaptive tip selection algorithm
leveraging change-point detection dynamically determines the number of selected
tips. We evaluate the clustering and training performance of DAG-ACFL on
multiple datasets and analyze its communication and storage costs. Experiments
show the superiority of DAG-ACFL in asynchronous clustered FL. By combining
DAG-DLT with clustered FL, DAG-ACFL realizes robust, decentralized and private
model training with efficient performance.
- Abstract(参考訳): Federated Learning (FL)は、クライアントデータのプライバシを確保しながら、グローバルモデルを協調的にトレーニングすることを目的としている。
しかし、FLはクライアント間の非IIDデータ分散の課題に直面している。
CFL(Clustered FL)は有望なソリューションとして登場したが、既存のCFLフレームワークのほとんどは非同期性に欠ける同期フレームワークを採用している。
有向非循環グラフ分散台帳技術(dag-dlt)に基づくsdagflと呼ばれる非同期cflフレームワークが提案されたが、完全な分散化によって通信とストレージコストが高まった。
我々はdag-dlt(directed acyclic graph distributed ledger techniques)に基づく非同期クラスタ型flフレームワークdag-acflを提案する。
まず,DAG-ACFLの構成要素について述べる。
モデルパラメータのコサイン類似性に基づくチップ選択アルゴリズムは、類似した分布を持つクライアントのモデルを集約するように設計される。
変化点検出を利用した適応型チップ選択アルゴリズムは、選択したチップの数を動的に決定する。
複数のデータセット上でのDAG-ACFLのクラスタリングとトレーニング性能を評価し,通信とストレージのコストを分析した。
非同期クラスタリングFLにおけるDAG-ACFLの優位性を示す実験を行った。
DAG-DLTとクラスタ化FLを組み合わせることで、DAG-ACFLは堅牢で分散化されたプライベートモデルトレーニングと効率的なパフォーマンスを実現する。
関連論文リスト
- Robust Model Aggregation for Heterogeneous Federated Learning: Analysis and Optimizations [35.58487905412915]
異種システムのための時間駆動型SFL(T-SFL)フレームワークを提案する。
T-SFLの学習性能を評価するため,大域的損失関数の上限を提供する。
本研究では,所定のしきい値以下に反復回数が減少するクライアントから局所モデルを除去する識別モデル選択アルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-05-11T11:55:26Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedClust: Optimizing Federated Learning on Non-IID Data through
Weight-Driven Client Clustering [28.057411252785176]
Federated Learning(FL)は、分散型デバイス上で、ローカルデータを公開せずにコラボレーティブなモデルトレーニングを可能にする、新興の分散機械学習パラダイムである。
本稿では,局所モデル重みとクライアントデータ分布の相関を利用した新しいCFL手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-03-07T01:50:36Z) - Convergence Analysis of Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
連立学習(FL)では、複数のクライアント間で共同トレーニングを行う方法が2つある:i)並列FL(PFL)、i)クライアントが並列にモデルを訓練するFL(SFL)、i)クライアントが逐次的にモデルを訓練するFL(SFL)である。
本稿では,不均一なデータに対するSFLの収束保証がまだ不十分であることを示す。
実験により,SFLはデバイス間設定において極めて不均一なデータ上でPFLより優れることを示した。
論文 参考訳(メタデータ) (2023-11-06T14:48:51Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Stochastic Clustered Federated Learning [21.811496586350653]
本稿では,一般の非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLは、任意の割合のクライアント参加と新しく加入したクライアントをサポートする柔軟なCFLフレームワークを実装しています。
その結果,StoCFLはクラスタ数の不明な場合でも,有望なクラスタ結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T01:39:16Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z) - Towards On-Device Federated Learning: A Direct Acyclic Graph-based
Blockchain Approach [2.9202274421296943]
本稿では,DAG(Direct Acyclic Graph)ベースのブロックチェーンシステム(DAG-FL)を用いたフェデレートラーニングを支援するフレームワークを提案する。
2つのアルゴリズムDAG-FL ControllingとDAG-FL Updatingは、DAG-FLコンセンサスメカニズムの操作を精巧にするために異なるノードで動作するように設計されています。
論文 参考訳(メタデータ) (2021-04-27T10:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。