論文の概要: Computation and Communication Efficient Federated Learning over Wireless
Networks
- arxiv url: http://arxiv.org/abs/2309.01816v1
- Date: Mon, 4 Sep 2023 21:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 17:13:20.482414
- Title: Computation and Communication Efficient Federated Learning over Wireless
Networks
- Title(参考訳): 無線ネットワーク上でのフェデレーション学習の計算とコミュニケーション
- Authors: Xiaonan Liu and Tharmalingam Ratnarajah
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを保持しながら、エッジデバイスによるローカルデータからのモデルトレーニングを可能にする。
部分的なモデルプルーニングとパーソナライゼーションを備えた新しいFLフレームワークについて検討する。
提案するFLフレームワークは,約50%の計算と通信遅延を著しく削減できることを示す。
- 参考スコア(独自算出の注目度): 23.19664511320006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows model training from local data by edge devices
while preserving data privacy. However, the learning accuracy decreases due to
the heterogeneity of devices data, and the computation and communication
latency increase when updating large scale learning models on devices with
limited computational capability and wireless resources. To overcome these
challenges, we consider a novel FL framework with partial model pruning and
personalization. This framework splits the learning model into a global part
with model pruning shared with all devices to learn data representations and a
personalized part to be fine tuned for a specific device, which adapts the
model size during FL to reduce both computation and communication overhead and
minimize the overall training time, and increases the learning accuracy for the
device with non independent and identically distributed (non IID) data. Then,
the computation and communication latency and the convergence analysis of the
proposed FL framework are mathematically analyzed. Based on the convergence
analysis, an optimization problem is formulated to maximize the convergence
rate under a latency threshold by jointly optimizing the pruning ratio and
wireless resource allocation. By decoupling the optimization problem and
deploying Karush Kuhn Tucker (KKT) conditions, we derive the closed form
solutions of pruning ratio and wireless resource allocation. Finally,
experimental results demonstrate that the proposed FL framework achieves a
remarkable reduction of approximately 50 percents computation and communication
latency compared with the scheme only with model personalization.
- Abstract(参考訳): フェデレーション学習(fl)は、データプライバシを維持しながら、エッジデバイスによるローカルデータからのモデルトレーニングを可能にする。
しかし、デバイスデータの多様性により学習精度が低下し、計算能力や無線リソースの制限されたデバイス上で大規模学習モデルを更新すると計算と通信の遅延が増加する。
これらの課題を克服するために,部分モデルプルーニングとパーソナライズを備えた新しいflフレームワークを検討する。
このフレームワークは、学習モデルを全デバイスで共有し、データ表現を学習するモデルプルーニングと、特定のデバイス向けに微調整されるパーソナライズされた部分とに分割し、fl中のモデルサイズを適合させ、計算と通信のオーバーヘッドを低減し、全体的なトレーニング時間を最小化し、非独立かつ同一分散(非iid)データによるデバイスの学習精度を向上させる。
次に,提案するflフレームワークの計算と通信レイテンシと収束解析を数学的に解析する。
収束解析に基づいて、プルーニング比と無線リソース割り当てを共同最適化することにより、レイテンシ閾値下での収束率を最大化する最適化問題を定式化する。
最適化問題を解き、KKT(Karush Kuhn Tucker)条件を配置することにより、プルーニング比と無線リソース割り当ての閉形式解を導出する。
最後に,提案するflフレームワークはモデルパーソナライズのみと比較して計算と通信の遅延を約50%削減できることを示す実験結果を得た。
関連論文リスト
- DYNAMITE: Dynamic Interplay of Mini-Batch Size and Aggregation Frequency
for Federated Learning with Static and Streaming Dataset [23.11152686493894]
Federated Learning(FL)は、異種エッジデバイスをコーディネートして、プライベートデータを共有せずにモデルトレーニングを実行する分散学習パラダイムである。
本稿では、バッチサイズと集約周波数の相互作用を利用して、動的FLトレーニングにおける収束、コスト、完了時間間のトレードオフをナビゲートする新しい解析モデルと最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-20T08:36:12Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Resource-Efficient and Delay-Aware Federated Learning Design under Edge
Heterogeneity [10.702853653891902]
フェデレーテッド・ラーニング(FL)は、ワイヤレスエッジデバイスに機械学習を分散するための一般的な方法論として登場した。
本研究では,FLにおけるモデル性能と資源利用のトレードオフを最適化することを検討する。
提案したStoFedDelAvは、FL計算ステップに局所言語モデルコンバインダーを組み込む。
論文 参考訳(メタデータ) (2021-12-27T22:30:15Z) - Spatio-Temporal Federated Learning for Massive Wireless Edge Networks [23.389249751372393]
エッジサーバと多数のモバイルデバイス(クライアント)は、モバイルデバイスが収集した膨大なデータをエッジサーバに転送することなく、グローバルモデルを共同で学習する。
提案手法は,STFLに参加する予定の様々なモバイルデバイスからの学習更新の空間的および時間的相関を利用している。
収束性能を用いてSTFLの学習能力を研究するために,STFLの分析フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T16:46:45Z) - User Scheduling for Federated Learning Through Over-the-Air Computation [22.853678584121862]
FL(Federated Learning)と呼ばれる新しい機械学習技術は、エッジデバイスにおけるデータの保存と、学習プロセスにおけるMLモデルパラメータの交換のみを目的としている。
FLは通信ニーズを減らすだけでなく、地域のプライバシーを守るのにも役立ちます。
AirCompは、アナログ変調を用いて複数のデバイスが同時にデータを送信できるようにすることで、データを送信しながら計算することができる。
論文 参考訳(メタデータ) (2021-08-05T23:58:15Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。