論文の概要: Federated Learning with Flexible Control
- arxiv url: http://arxiv.org/abs/2212.08496v1
- Date: Fri, 16 Dec 2022 14:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 16:37:32.010758
- Title: Federated Learning with Flexible Control
- Title(参考訳): フレキシブル制御による連合学習
- Authors: Shiqiang Wang, Jake Perazzone, Mingyue Ji, Kevin S. Chan
- Abstract要約: フェデレートラーニング(FL)は、ユーザが収集したローカルデータから分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクスを持つ分散システムでは、例えばモバイルエッジネットワークでは、FLの効率が重要な問題である。
フレキシブルに調整可能な複数のオプションを持つFLアルゴリズムであるFlexFLを提案する。
- 参考スコア(独自算出の注目度): 30.65854375019346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables distributed model training from local data
collected by users. In distributed systems with constrained resources and
potentially high dynamics, e.g., mobile edge networks, the efficiency of FL is
an important problem. Existing works have separately considered different
configurations to make FL more efficient, such as infrequent transmission of
model updates, client subsampling, and compression of update vectors. However,
an important open problem is how to jointly apply and tune these control knobs
in a single FL algorithm, to achieve the best performance by allowing a high
degree of freedom in control decisions. In this paper, we address this problem
and propose FlexFL - an FL algorithm with multiple options that can be adjusted
flexibly. Our FlexFL algorithm allows both arbitrary rates of local computation
at clients and arbitrary amounts of communication between clients and the
server, making both the computation and communication resource consumption
adjustable. We prove a convergence upper bound of this algorithm. Based on this
result, we further propose a stochastic optimization formulation and algorithm
to determine the control decisions that (approximately) minimize the
convergence bound, while conforming to constraints related to resource
consumption. The advantage of our approach is also verified using experiments.
- Abstract(参考訳): フェデレーション学習(fl)は、ユーザが収集したローカルデータからの分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクス、例えばモバイルエッジネットワークを持つ分散システムでは、flの効率性が重要な問題である。
既存の作業では、モデル更新の頻度の低い送信、クライアントサブサンプリング、更新ベクトルの圧縮など、FLをより効率的にするための異なる構成を別々に検討している。
しかしながら、重要なオープン問題は、制御ノブを単一のflアルゴリズムで共同して適用し、調整し、制御決定の自由度を高くすることで、最高の性能を達成する方法である。
本稿では,この問題に対処し,フレキシブルに調整可能な複数オプションのflアルゴリズムであるflexflを提案する。
当社のFlexFLアルゴリズムは,クライアントのローカル計算の任意のレートとクライアントとサーバ間の任意の通信量の両方を可能にし,計算と通信リソースの消費の調整を可能にする。
このアルゴリズムの収束上限を証明します。
この結果に基づき, 資源消費に関する制約に準拠しつつ, 収束限界を(ほぼ)最小化する制御決定を決定する確率的最適化定式化とアルゴリズムを提案する。
また,本手法の利点を実験により検証した。
関連論文リスト
- Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Learner Referral for Cost-Effective Federated Learning Over Hierarchical
IoT Networks [21.76836812021954]
本稿では,連合選択(LRef-FedCS),通信資源,局所モデル精度(LMAO)手法を支援する。
提案したLRef-FedCSアプローチは,高いグローバル精度とコスト削減のバランスをとることができる。
論文 参考訳(メタデータ) (2023-07-19T13:33:43Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - User-Centric Federated Learning: Trading off Wireless Resources for
Personalization [18.38078866145659]
フェデレートラーニング(FL)システムでは、統計的不均一性はアルゴリズム収束時間を増やし、一般化性能を低下させる。
FLが課すプライバシー制約に違反することなく、上記の問題に対処するためには、パーソナライズされたFLメソッドは、データに直接アクセスすることなく、統計的に類似したクライアントを結合する必要がある。
本研究では,容易に利用できる勾配情報に基づいて,FLクライアント毎にパーソナライズされたモデルを生成可能なユーザ中心集約ルールを設計する。
提案アルゴリズムは,平均精度,ノード性能,通信オーバヘッドの訓練において,パーソナライズされたFLベースラインを上回っている。
論文 参考訳(メタデータ) (2023-04-25T15:45:37Z) - Adaptive Control of Client Selection and Gradient Compression for
Efficient Federated Learning [28.185096784982544]
フェデレートラーニング(FL)は、複数のクライアントがローカルデータを公開せずに協調的にモデルを訓練することを可能にする。
我々はFedCGと呼ばれる不均一なFLフレームワークを提案し、適応的なクライアント選択と勾配圧縮を行う。
実世界のプロトタイプとシミュレーションの両方の実験により、FedCGは他の方法と比較して最大5.3$times$ Speedupを提供できることが示された。
論文 参考訳(メタデータ) (2022-12-19T14:19:07Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Boosting Federated Learning in Resource-Constrained Networks [1.7010199949406575]
フェデレートラーニング(FL)は、一連のクライアントデバイスが、生データを共有せずに協調的にモデルをトレーニングすることを可能にする。
推測学習アルゴリズムであるGeLを提案する。
資源制約ネットワークにおいて,GeLは経験的収束を最大40%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-10-21T21:23:04Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Joint Optimization of Communications and Federated Learning Over the Air [32.14738452396869]
Federated Learning(FL)は、データプライバシーを保護しながら、リッチな分散データを利用するための魅力的なパラダイムです。
本稿では,リアル無線ネットワークにおけるアナログアグリゲーション伝送に基づく通信とFLの協調最適化について検討する。
論文 参考訳(メタデータ) (2021-04-08T03:38:31Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。