論文の概要: Federated Learning with Flexible Control
- arxiv url: http://arxiv.org/abs/2212.08496v1
- Date: Fri, 16 Dec 2022 14:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 16:37:32.010758
- Title: Federated Learning with Flexible Control
- Title(参考訳): フレキシブル制御による連合学習
- Authors: Shiqiang Wang, Jake Perazzone, Mingyue Ji, Kevin S. Chan
- Abstract要約: フェデレートラーニング(FL)は、ユーザが収集したローカルデータから分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクスを持つ分散システムでは、例えばモバイルエッジネットワークでは、FLの効率が重要な問題である。
フレキシブルに調整可能な複数のオプションを持つFLアルゴリズムであるFlexFLを提案する。
- 参考スコア(独自算出の注目度): 30.65854375019346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables distributed model training from local data
collected by users. In distributed systems with constrained resources and
potentially high dynamics, e.g., mobile edge networks, the efficiency of FL is
an important problem. Existing works have separately considered different
configurations to make FL more efficient, such as infrequent transmission of
model updates, client subsampling, and compression of update vectors. However,
an important open problem is how to jointly apply and tune these control knobs
in a single FL algorithm, to achieve the best performance by allowing a high
degree of freedom in control decisions. In this paper, we address this problem
and propose FlexFL - an FL algorithm with multiple options that can be adjusted
flexibly. Our FlexFL algorithm allows both arbitrary rates of local computation
at clients and arbitrary amounts of communication between clients and the
server, making both the computation and communication resource consumption
adjustable. We prove a convergence upper bound of this algorithm. Based on this
result, we further propose a stochastic optimization formulation and algorithm
to determine the control decisions that (approximately) minimize the
convergence bound, while conforming to constraints related to resource
consumption. The advantage of our approach is also verified using experiments.
- Abstract(参考訳): フェデレーション学習(fl)は、ユーザが収集したローカルデータからの分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクス、例えばモバイルエッジネットワークを持つ分散システムでは、flの効率性が重要な問題である。
既存の作業では、モデル更新の頻度の低い送信、クライアントサブサンプリング、更新ベクトルの圧縮など、FLをより効率的にするための異なる構成を別々に検討している。
しかしながら、重要なオープン問題は、制御ノブを単一のflアルゴリズムで共同して適用し、調整し、制御決定の自由度を高くすることで、最高の性能を達成する方法である。
本稿では,この問題に対処し,フレキシブルに調整可能な複数オプションのflアルゴリズムであるflexflを提案する。
当社のFlexFLアルゴリズムは,クライアントのローカル計算の任意のレートとクライアントとサーバ間の任意の通信量の両方を可能にし,計算と通信リソースの消費の調整を可能にする。
このアルゴリズムの収束上限を証明します。
この結果に基づき, 資源消費に関する制約に準拠しつつ, 収束限界を(ほぼ)最小化する制御決定を決定する確率的最適化定式化とアルゴリズムを提案する。
また,本手法の利点を実験により検証した。
関連論文リスト
- Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Accelerating Energy-Efficient Federated Learning in Cell-Free Networks with Adaptive Quantization [45.99908087352264]
フェデレートラーニング(FL)により、クライアントはローカルデータの代わりに学習パラメータを共有でき、通信オーバーヘッドを低減できる。
従来の無線ネットワークはFLでレイテンシの問題に直面している。
本稿では,クライアントサーバ間のシームレスな協調作業に最適化されたアップリンク電力割り当てを特徴とするエネルギー効率,低レイテンシFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-30T08:10:21Z) - Adaptive Quantization Resolution and Power Control for Federated Learning over Cell-free Networks [41.23236059700041]
Federated Learning(FL)は、ローカルモデルの更新を生のデータセットではなくサーバと交換することで、グローバルモデルをトレーニングする分散学習フレームワークである。
セルフリーの大規模マルチインプット多重出力(CFmMIMO)は、同じ時間/周波数のリソースを同じレートで多くのユーザに提供する、有望なソリューションである。
本稿では, フラッグラー効果を緩和するために, FLアプリケーションと物理層を同時最適化する。
論文 参考訳(メタデータ) (2024-12-14T16:08:05Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Boosting Federated Learning in Resource-Constrained Networks [1.7010199949406575]
フェデレートラーニング(FL)は、一連のクライアントデバイスが、生データを共有せずに協調的にモデルをトレーニングすることを可能にする。
推測学習アルゴリズムであるGeLを提案する。
資源制約ネットワークにおいて,GeLは経験的収束を最大40%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-10-21T21:23:04Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Joint Optimization of Communications and Federated Learning Over the Air [32.14738452396869]
Federated Learning(FL)は、データプライバシーを保護しながら、リッチな分散データを利用するための魅力的なパラダイムです。
本稿では,リアル無線ネットワークにおけるアナログアグリゲーション伝送に基づく通信とFLの協調最適化について検討する。
論文 参考訳(メタデータ) (2021-04-08T03:38:31Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。