論文の概要: Mitigating Persistent Client Dropout in Asynchronous Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2508.01807v1
- Date: Sun, 03 Aug 2025 15:42:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.071774
- Title: Mitigating Persistent Client Dropout in Asynchronous Decentralized Federated Learning
- Title(参考訳): 非同期分散フェデレーション学習における永続的クライアントドロップアウトの軽減
- Authors: Ignacy Stępka, Nicholas Gisolfi, Kacper Trębacz, Artur Dubrawski,
- Abstract要約: 非同期性と分散化は、フェデレーションピア間のモデル更新に関する情報を難なくし、クライアントのドロップアウトからのリカバリが困難になる。
明らかな軽減策は,問題に適切に対処せず,クライアントの再構築に基づく適応戦略を導入することを示す。
- 参考スコア(独自算出の注目度): 12.348292720295017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of persistent client dropout in asynchronous Decentralized Federated Learning (DFL). Asynchronicity and decentralization obfuscate information about model updates among federation peers, making recovery from a client dropout difficult. Access to the number of learning epochs, data distributions, and all the information necessary to precisely reconstruct the missing neighbor's loss functions is limited. We show that obvious mitigations do not adequately address the problem and introduce adaptive strategies based on client reconstruction. We show that these strategies can effectively recover some performance loss caused by dropout. Our work focuses on asynchronous DFL with local regularization and differs substantially from that in the existing literature. We evaluate the proposed methods on tabular and image datasets, involve three DFL algorithms, and three data heterogeneity scenarios (iid, non-iid, class-focused non-iid). Our experiments show that the proposed adaptive strategies can be effective in maintaining robustness of federated learning, even if they do not reconstruct the missing client's data precisely. We also discuss the limitations and identify future avenues for tackling the problem of client dropout.
- Abstract(参考訳): 本稿では,非同期分散フェデレートラーニング(DFL)における永続的クライアントドロップアウトの問題について考察する。
非同期性と分散化は、フェデレーションピア間のモデル更新に関する情報を難なくし、クライアントのドロップアウトからのリカバリが困難になる。
不足している隣人の損失関数を正確に再構築するために必要な学習エポック数、データ分布、およびすべての情報へのアクセスは限られている。
明らかな軽減策は,問題に適切に対処せず,クライアントの再構築に基づく適応戦略を導入することを示す。
これらの戦略は,ドロップアウトによる性能低下を効果的に回復できることを示す。
我々の研究は、局所正規化を伴う非同期DFLに焦点を当てており、既存の文献とは大きく異なる。
提案手法は3つのDFLアルゴリズムと3つのデータ不均一性シナリオ(iid, non-iid, class- focus non-iid)を含んでいる。
提案手法は,クライアントのデータを正確に再構築していない場合でも,フェデレーション学習の堅牢性を維持する上で有効であることを示す。
また、クライアントのドロップアウト問題に対処するための制約や今後の方法についても検討する。
関連論文リスト
- Understanding Federated Learning from IID to Non-IID dataset: An Experimental Study [5.680416078423551]
フェデレーション・ラーニング(FL)は、生データを共有せずに分散化されたデータソース間で機械学習モデルをトレーニングするための有望なアプローチとして登場した。
FLにおける重要な課題は、クライアントデータが非IID(非独立で同一の分散)であることが多く、集中型学習と比較してパフォーマンスが低下することです。
論文 参考訳(メタデータ) (2025-01-31T21:58:15Z) - FedRTS: Federated Robust Pruning via Combinatorial Thompson Sampling [12.067872131025231]
フェデレートラーニング(FL)は、データ共有なしで分散クライアント間で協調的なモデルトレーニングを可能にする。
現在の手法では、疎密性を維持しながらスパースモデルトポロジを周期的に調整することで、動的プルーニングを用いて効率を向上させる。
我々は,堅牢なスパースモデルの開発を目的とした新しいフレームワークであるThompson Sampling (FedRTS) によるフェデレートロバスト刈取を提案する。
論文 参考訳(メタデータ) (2025-01-31T13:26:22Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Better Generative Replay for Continual Federated Learning [20.57194599280318]
フェデレートラーニング(Federated Learning)とは、分散クライアントからコミュニケーションを通じて学習する集中型サーバを実現する技術である。
本稿では,クライアントが新たなタスクを段階的に学習し,履歴データを格納できない連続的フェデレーション学習の問題を紹介する。
我々は,モデル統合と整合性強化という,シンプルだが効果的な2つの解を用いたFedCILモデルを提案する。
論文 参考訳(メタデータ) (2023-02-25T06:26:56Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Byzantine-robust Federated Learning through Spatial-temporal Analysis of
Local Model Updates [6.758334200305236]
フェデレートラーニング(FL)は、複数の分散クライアント(モバイルデバイスなど)が、クライアントにローカルにトレーニングデータを保持しながら、協調的に集中的なモデルをトレーニングすることを可能にする。
本稿では,これらの障害と攻撃を空間的・時間的観点から緩和することを提案する。
具体的には、パラメータ空間におけるそれらの幾何学的性質を活用することにより、不正な更新を検出し、排除するためにクラスタリングに基づく手法を用いる。
論文 参考訳(メタデータ) (2021-07-03T18:48:11Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。