論文の概要: Optimal Batch Allocation for Wireless Federated Learning
- arxiv url: http://arxiv.org/abs/2404.02395v1
- Date: Wed, 3 Apr 2024 01:42:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 18:49:24.961152
- Title: Optimal Batch Allocation for Wireless Federated Learning
- Title(参考訳): 無線フェデレーション学習のための最適バッチアロケーション
- Authors: Jaeyoung Song, Sang-Woon Jeon,
- Abstract要約: フェデレートラーニングは、プライベートデータに直接アクセスすることなく、ローカルデバイスに分散したデータセットに適合するグローバルモデルを構築することを目的としている。
我々は,フェデレート学習において,最小のグローバル損失から,特定の最適性ギャップに達するために必要なイテレーション数を分析する。
提案したステップワイドバッチアロケーションによって提供されるデバイス間の非ゼロバッチギャップがRAベースの学習システムの完了時間を著しく短縮することを示す。
- 参考スコア(独自算出の注目度): 8.373407091332913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning aims to construct a global model that fits the dataset distributed across local devices without direct access to private data, leveraging communication between a server and the local devices. In the context of a practical communication scheme, we study the completion time required to achieve a target performance. Specifically, we analyze the number of iterations required for federated learning to reach a specific optimality gap from a minimum global loss. Subsequently, we characterize the time required for each iteration under two fundamental multiple access schemes: time-division multiple access (TDMA) and random access (RA). We propose a step-wise batch allocation, demonstrated to be optimal for TDMA-based federated learning systems. Additionally, we show that the non-zero batch gap between devices provided by the proposed step-wise batch allocation significantly reduces the completion time for RA-based learning systems. Numerical evaluations validate these analytical results through real-data experiments, highlighting the remarkable potential for substantial completion time reduction.
- Abstract(参考訳): Federated Learningは、プライベートデータに直接アクセスすることなく、ローカルデバイスに分散されたデータセットに適合するグローバルモデルを構築し、サーバとローカルデバイス間の通信を活用することを目的としている。
実用的な通信方式では,目標性能を達成するのに必要な完了時間について検討する。
具体的には、フェデレーション学習に必要なイテレーション数を分析し、最小のグローバル損失から特定の最適性ギャップに到達する。
その後、時間分割多重アクセス(TDMA)とランダムアクセス(RA)の2つの基本的多重アクセス方式で、各イテレーションに必要な時間を特徴付ける。
本稿では,TDMAに基づくフェデレーション学習システムに最適なステップワイズバッチアロケーションを提案する。
さらに,提案したステップワイド・バッチ・アロケーションによって提供されるデバイス間の非ゼロバッチ・ギャップがRAベースの学習システムの完了時間を大幅に短縮することを示す。
数値的な評価は実データ実験を通じてこれらの解析結果を検証し、実質的な完了時間短縮の可能性を強調した。
関連論文リスト
- PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Wirelessly Powered Federated Learning Networks: Joint Power Transfer,
Data Sensing, Model Training, and Resource Allocation [24.077525032187893]
フェデレートラーニング(FL)は、無線ネットワークで多くの成功を収めている。
FLの実装は、モバイルデバイス(MD)のエネルギー制限と、MDにおけるトレーニングデータの可用性によって妨げられている。
無線送電と持続可能なFLネットワークの統合
論文 参考訳(メタデータ) (2023-08-09T13:38:58Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Data-Aware Device Scheduling for Federated Edge Learning [5.521735057483887]
Federated Edge Learning (FEEL)は、エッジデバイス間の機械学習モデルの協調トレーニングを含む。
FEELにおける非独立分散(非IID)データセットとアンバランスデータセットの新しいスケジューリング方式を提案する。
提案するFEELスケジューリングアルゴリズムは,低コストで数ラウンドで高い精度を実現することができることを示す。
論文 参考訳(メタデータ) (2021-02-18T17:17:56Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z) - Towards Efficient Scheduling of Federated Mobile Devices under
Computational and Statistical Heterogeneity [16.069182241512266]
本稿では,モバイルデバイス上での分散学習の実装について検討する。
チューニングノブとしてデータを使用し、異なるワークロードをスケジュールする2つの効率的な時間アルゴリズムを提案する。
一般的なベンチマークと比較すると,提案アルゴリズムはCIFAR10で2-100倍の高速化,2-7%の精度向上,収束率を100%以上達成している。
論文 参考訳(メタデータ) (2020-05-25T18:21:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。