論文の概要: Federated Learning Under Intermittent Client Availability and
Time-Varying Communication Constraints
- arxiv url: http://arxiv.org/abs/2205.06730v1
- Date: Fri, 13 May 2022 16:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 16:14:32.461452
- Title: Federated Learning Under Intermittent Client Availability and
Time-Varying Communication Constraints
- Title(参考訳): 間欠的クライアント可用性と時変通信制約下での連合学習
- Authors: Monica Ribero and Haris Vikalo and Gustavo De Veciana
- Abstract要約: フェデレートされた学習システムは、断続的なクライアントの可用性および/または時間変化の通信制約を伴う設定で動作する。
可用性に依存したクライアント選択戦略を学習する非バイアスアルゴリズムであるF3ASTを提案する。
CIFAR100とシェークスピアでそれぞれ186%,FedAvgは8%,FedAdamは7%であった。
- 参考スコア(独自算出の注目度): 29.897785907692644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning systems facilitate training of global models in settings
where potentially heterogeneous data is distributed across a large number of
clients. Such systems operate in settings with intermittent client availability
and/or time-varying communication constraints. As a result, the global models
trained by federated learning systems may be biased towards clients with higher
availability. We propose F3AST, an unbiased algorithm that dynamically learns
an availability-dependent client selection strategy which asymptotically
minimizes the impact of client-sampling variance on the global model
convergence, enhancing performance of federated learning. The proposed
algorithm is tested in a variety of settings for intermittently available
clients under communication constraints, and its efficacy demonstrated on
synthetic data and realistically federated benchmarking experiments using
CIFAR100 and Shakespeare datasets. We show up to 186% and 8% accuracy
improvements over FedAvg, and 8% and 7% over FedAdam on CIFAR100 and
Shakespeare, respectively.
- Abstract(参考訳): フェデレーション学習システムは、潜在的に異種なデータを多数のクライアントに分散する設定において、グローバルモデルのトレーニングを容易にする。
このようなシステムは、断続的なクライアントの可用性および/または時間変化の通信制約を伴う設定で動作する。
その結果、連合学習システムによって訓練されたグローバルモデルは、高可用性のクライアントに偏りが生じる可能性がある。
本稿では,グローバルモデル収束に対するクライアントサンプリング分散の影響を漸近的に最小化し,連合学習の性能を向上させる,可用性依存型クライアント選択戦略を動的に学習する非バイアスアルゴリズムであるf3astを提案する。
提案アルゴリズムは, 間欠的に利用可能なクライアントに対して, 通信制約下での様々な設定で検証し, CIFAR100とシェークスピアデータセットを用いて, 合成データおよび現実的なベンチマーク実験で有効性を示した。
cifar100では186%,fedavgでは8%,fedadamでは8%,シェークスピアでは7%であった。
関連論文リスト
- Adversarial Federated Consensus Learning for Surface Defect Classification Under Data Heterogeneity in IIoT [8.48069043458347]
産業用IoT(Industrial Internet of Things)における各種エンティティからの十分なトレーニングデータの収集と集中化は難しい。
フェデレートラーニング(FL)は、クライアント間で協調的なグローバルモデルトレーニングを可能にするソリューションを提供する。
我々は,Adversarial Federated Consensus Learning (AFedCL) という新しいFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-24T03:59:32Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Federated Graph-based Sampling with Arbitrary Client Availability [34.95352685954059]
本稿では,FedGS(Federated Graph-based Smpling)というフレームワークを提案する。
実験結果から,FedGSが公正なクライアントサンプリング方式を実現し,任意のクライアントアベイラビリティの下でモデル性能を向上させるという利点が確認できた。
論文 参考訳(メタデータ) (2022-11-25T09:38:20Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。