論文の概要: On the Convergence Time of Federated Learning Over Wireless Networks
Under Imperfect CSI
- arxiv url: http://arxiv.org/abs/2104.00331v1
- Date: Thu, 1 Apr 2021 08:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:30:32.410494
- Title: On the Convergence Time of Federated Learning Over Wireless Networks
Under Imperfect CSI
- Title(参考訳): 不完全csi下の無線ネットワーク上での連合学習の収束時間について
- Authors: Francesco Pase, Marco Giordani, Michele Zorzi
- Abstract要約: チャネル統計をバイアスとして,不完全なcsi下での収束時間を最小化するトレーニングプロセスを提案する。
また,学習過程に関わるクライアント数とモデル精度とのトレードオフを,異なる失明状態の関数として検討した。
- 参考スコア(独自算出の注目度): 28.782485580296374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has recently emerged as an attractive decentralized
solution for wireless networks to collaboratively train a shared model while
keeping data localized. As a general approach, existing FL methods tend to
assume perfect knowledge of the Channel State Information (CSI) during the
training phase, which may not be easy to acquire in case of fast fading
channels. Moreover, literature analyses either consider a fixed number of
clients participating in the training of the federated model, or simply assume
that all clients operate at the maximum achievable rate to transmit model data.
In this paper, we fill these gaps by proposing a training process that takes
channel statistics as a bias to minimize the convergence time under imperfect
CSI. Numerical experiments demonstrate that it is possible to reduce the
training time by neglecting model updates from clients that cannot sustain a
minimum predefined transmission rate. We also examine the trade-off between
number of clients involved in the training process and model accuracy as a
function of different fading regimes.
- Abstract(参考訳): フェデレートラーニング(FL)は、データをローカライズしながら共有モデルを協調訓練する無線ネットワークのための魅力的な分散ソリューションとして最近登場した。
一般的なアプローチとして、既存のfl法は、トレーニングフェーズ中にチャネル状態情報(csi)の完全な知識を想定する傾向がある。
さらに、文献分析では、フェデレーションモデルのトレーニングに参加している一定の数のクライアントを考慮するか、モデルデータを送信するために、すべてのクライアントが最大到達率で動作していると仮定するかのどちらかである。
本稿では,不完全なCSIの下での収束時間を最小化するために,チャネル統計をバイアスとするトレーニングプロセスを提案する。
シミュレーション実験により,最小限の事前定義された送信速度を維持できないクライアントからのモデル更新を無視することにより,トレーニング時間を短縮できることを示した。
また,学習過程に関わるクライアント数とモデル精度とのトレードオフを,異なる流行状態の関数として検討した。
関連論文リスト
- Fast-FedUL: A Training-Free Federated Unlearning with Provable Skew Resilience [26.647028483763137]
我々は、Fast-FedULを紹介した。Fast-FedULは、フェデレートラーニング(FL)のための調整済みの未学習手法である。
訓練されたモデルからターゲットクライアントの影響を体系的に除去するアルゴリズムを開発した。
実験結果から、Fast-FedULはターゲットクライアントのほとんどすべてのトレースを効果的に削除し、未ターゲットクライアントの知識を維持していることがわかった。
論文 参考訳(メタデータ) (2024-05-28T10:51:38Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - FedDCT: A Dynamic Cross-Tier Federated Learning Scheme in Wireless
Communication Networks [1.973745731206255]
フェデレートラーニング(FL)は、クライアント間で、ローカルデータを公開せずにグローバルモデルのトレーニングを可能にする。
我々は、無線通信ネットワークにおけるトレーニング精度と性能を向上させるために、FedDCTと呼ばれる新しい動的クロス層FLスキームを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:54:07Z) - SalientGrads: Sparse Models for Communication Efficient and Data Aware
Distributed Federated Training [1.0413504599164103]
フェデレートラーニング(FL)は、データを収集せずにプライバシを保ちながら、クライアントサイトの分散データを活用したモデルのトレーニングを可能にする。
FLの重要な課題の1つは、リソース制限されたエッジクライアントノードにおける計算の制限と通信帯域の低さである。
本稿では,学習前にデータ認識サブネットワークを選択することで,スパーストレーニングのプロセスを簡単にするSalient Gradsを提案する。
論文 参考訳(メタデータ) (2023-04-15T06:46:37Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Joint Client Scheduling and Resource Allocation under Channel
Uncertainty in Federated Learning [47.97586668316476]
無線ネットワーク上のフェデレートラーニング(FL)は、クライアントサーバの接続性とクライアントのローカル計算能力の信頼性に依存する。
本稿では、FLを用いたモデルトレーニングの性能を高めるため、クライアントスケジューリングとリソースブロック(RB)割り当ての問題について検討する。
提案手法は,最先端クライアントスケジューリングやRBアロケーション手法と比較して,トレーニング精度損失のギャップを最大40.7%削減する。
論文 参考訳(メタデータ) (2021-06-12T15:18:48Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Communication-Efficient Federated Learning with Dual-Side Low-Rank
Compression [8.353152693578151]
Federated Learning(FL)は、クライアントの生データを共有せずにディープラーニングモデルをトレーニングするための有望で強力なアプローチです。
両サイドローランク圧縮(FedDLR)を用いたフェデレーションラーニングと呼ばれる新しいトレーニング手法を提案する。
我々は,FedDLRがコミュニケーションと効率の両面で最先端のソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T09:13:31Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。