論文の概要: Asynchronous Multi-Model Federated Learning over Wireless Networks:
Theory, Modeling, and Optimization
- arxiv url: http://arxiv.org/abs/2305.13503v1
- Date: Mon, 22 May 2023 21:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 20:30:21.366676
- Title: Asynchronous Multi-Model Federated Learning over Wireless Networks:
Theory, Modeling, and Optimization
- Title(参考訳): 無線ネットワーク上の非同期多モデルフェデレーション学習:理論,モデリング,最適化
- Authors: Zhan-Lun Chang, Seyyedali Hosseinalipour, Mung Chiang, Christopher G.
Brinton
- Abstract要約: 分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
ほとんどの文献では、(i)単一タスク/モデルのためのMLモデルトレーニングを備えたシステム、(ii)モデルパラメータのアップリンク/ダウンリンク転送のための同期設定に焦点を当てている。
我々は,モデル性能とネットワークリソースの節約の観点から,FL下流を考慮したMA-FLを開発する。
- 参考スコア(独自算出の注目度): 23.0845190971653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a key technique for distributed
machine learning (ML). Most literature on FL has focused on systems with (i) ML
model training for a single task/model, (ii) a synchronous setting for
uplink/downlink transfer of model parameters, which is often unrealistic. To
address this, we develop MA-FL, which considers FL with multiple downstream
tasks to be trained over an asynchronous model transmission architecture. We
first characterize the convergence of ML model training under MA-FL via
introducing a family of scheduling tensors to capture the scheduling of
devices. Our convergence analysis sheds light on the impact of resource
allocation (e.g., the mini-batch size and number of gradient descent
iterations), device scheduling, and individual model states (i.e., warmed vs.
cold initialization) on the performance of ML models. We then formulate a
non-convex mixed integer optimization problem for jointly configuring the
resource allocation and device scheduling to strike an efficient trade-off
between energy consumption and ML performance, which is solved via successive
convex approximations. Through numerical simulations, we reveal the advantages
of MA-FL in terms of model performance and network resource savings.
- Abstract(参考訳): federated learning(fl)は、分散機械学習(ml)の鍵となるテクニックとして登場した。
FLに関するほとんどの文献はシステムに重点を置いている
(i)1つのタスク/モデルのためのMLモデルトレーニング
(ii)モデルパラメータのアップリンク/ダウンリンク転送のための同期設定は、しばしば非現実的である。
そこで我々は,複数の下流タスクを持つFLを非同期モデル伝送アーキテクチャ上でトレーニングするMA-FLを開発した。
我々はまず,MA-FL下でのMLモデルトレーニングの収束を,機器のスケジューリングを捉えるために,スケジューリングテンソルのファミリーを導入することで特徴付ける。
我々の収束分析は、資源割り当て(例えば、最小バッチサイズと勾配降下反復数)、デバイススケジューリング、および個別モデル状態(すなわち、温められた初期化対冷間初期化)がMLモデルの性能に与える影響に光を当てる。
次に、リソース割り当てとデバイススケジューリングを共同で構成する非凸混合整数最適化問題を定式化し、エネルギー消費とml性能の効率的なトレードオフを、連続する凸近似によって解決する。
シミュレーションにより,ma-flの利点をモデル性能とネットワーク資源節約の観点から明らかにする。
関連論文リスト
- Prioritizing Modalities: Flexible Importance Scheduling in Federated Multimodal Learning [5.421492821020181]
Federated Learning(FL)は、デバイスがローカルデータを共有せずにモデルを協調的にトレーニングできる分散機械学習アプローチである。
FLを実世界のデータに適用することは、特に既存のFL研究が不正なデータに焦点を当てているため、課題を提示している。
我々は,各モードエンコーダのトレーニングリソースを適応的に割り当てることで,MFLにおける計算効率を向上させる新しい手法FlexModを提案する。
論文 参考訳(メタデータ) (2024-08-13T01:14:27Z) - DYNAMITE: Dynamic Interplay of Mini-Batch Size and Aggregation Frequency
for Federated Learning with Static and Streaming Dataset [23.11152686493894]
Federated Learning(FL)は、異種エッジデバイスをコーディネートして、プライベートデータを共有せずにモデルトレーニングを実行する分散学習パラダイムである。
本稿では、バッチサイズと集約周波数の相互作用を利用して、動的FLトレーニングにおける収束、コスト、完了時間間のトレードオフをナビゲートする新しい解析モデルと最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-20T08:36:12Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Resource-Efficient and Delay-Aware Federated Learning Design under Edge
Heterogeneity [10.702853653891902]
フェデレーテッド・ラーニング(FL)は、ワイヤレスエッジデバイスに機械学習を分散するための一般的な方法論として登場した。
本研究では,FLにおけるモデル性能と資源利用のトレードオフを最適化することを検討する。
提案したStoFedDelAvは、FL計算ステップに局所言語モデルコンバインダーを組み込む。
論文 参考訳(メタデータ) (2021-12-27T22:30:15Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。