論文の概要: Energy-Aware Edge Association for Cluster-based Personalized Federated
Learning
- arxiv url: http://arxiv.org/abs/2202.02727v1
- Date: Sun, 6 Feb 2022 07:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:07:53.844993
- Title: Energy-Aware Edge Association for Cluster-based Personalized Federated
Learning
- Title(参考訳): クラスタ型個人化フェデレーション学習のためのエネルギー対応エッジアソシエーション
- Authors: Y. Li, X. Qin, H. Chen, K. Han and P. Zhang
- Abstract要約: 無線ネットワーク上のフェデレートラーニングは、プライバシ保存モデルトレーニングのために、ネットワークエッジにおけるユビキタスインテリジェンスを活用することによって、データ意識のサービスを可能にする。
我々は、類似した好みのユーザデバイスをグループ化するクラスタ化フェデレーション学習を提案し、各クラスタにパーソナライズされたモデルを提供する。
モデル精度、通信資源割り当て、エネルギー消費を共同で考慮し、精度-コストトレードオフ最適化問題を定式化する。
- 参考スコア(独自算出の注目度): 2.3262774900834606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) over wireless network enables data-conscious services
by leveraging the ubiquitous intelligence at network edge for
privacy-preserving model training. As the proliferation of context-aware
services, the diversified personal preferences causes disagreeing conditional
distributions among user data, which leads to poor inference performance. In
this sense, clustered federated learning is proposed to group user devices with
similar preference and provide each cluster with a personalized model. This
calls for innovative design in edge association that involves user clustering
and also resource management optimization. We formulate an accuracy-cost
trade-off optimization problem by jointly considering model accuracy,
communication resource allocation and energy consumption. To comply with
parameter encryption techniques in FL, we propose an iterative solution
procedure which employs deep reinforcement learning based approach at cloud
server for edge association. The reward function consists of minimized energy
consumption at each base station and the averaged model accuracy of all users.
Under our proposed solution, multiple edge base station are fully exploited to
realize cost efficient personalized federated learning without any prior
knowledge on model parameters. Simulation results show that our proposed
strategy outperforms existing strategies in achieving accurate learning at low
energy cost.
- Abstract(参考訳): 無線ネットワーク上のフェデレーション学習(fl)は、プライバシ保存モデルトレーニングにネットワークエッジのユビキタスインテリジェンスを活用することで、データ意識型サービスを可能にする。
コンテキスト認識サービスの普及に伴い、個人嗜好の多様化はユーザデータ間の条件分布の不一致を引き起こし、推論性能が低下する。
この意味で、クラスタ化されたフェデレーション学習は、同様の好みのユーザデバイスをグループ化し、各クラスタにパーソナライズされたモデルを提供する。
これにより、ユーザクラスタリングとリソース管理の最適化を含むエッジアソシエーションにおける革新的な設計が求められます。
モデル精度,通信資源割当,エネルギー消費を共同で考慮し,精度・コストトレードオフ最適化問題を定式化する。
FLにおけるパラメータ暗号化手法に従うために,エッジアソシエーションのためのクラウドサーバにおける深層強化学習に基づくアプローチを用いた反復解法を提案する。
報酬関数は,各基地局におけるエネルギー消費の最小化と,利用者の平均モデル精度から構成される。
提案手法では,複数のエッジベースステーションを十分に活用し,モデルパラメータの事前知識を必要とせず,コスト効率のよい個人化連合学習を実現する。
シミュレーションの結果,提案手法は,低消費電力で正確な学習を実現するための既存の戦略よりも優れていることがわかった。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Online Client Scheduling and Resource Allocation for Efficient Federated Edge Learning [9.451084740123198]
フェデレートラーニング(FL)は、エッジデバイスが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、電力、帯域幅などの制約のあるリソースを持つモバイルエッジネットワーク上にFLをデプロイすることは、高いトレーニングレイテンシと低いモデルの精度に悩まされる。
本稿では,資源制約と不確実性の下で,モバイルエッジネットワーク上でのFLの最適なクライアントスケジューリングとリソース割り当てについて検討する。
論文 参考訳(メタデータ) (2024-09-29T01:56:45Z) - SCALE: Self-regulated Clustered federAted LEarning in a Homogeneous Environment [4.925906256430176]
フェデレートラーニング(FL)は、ユーザのプライバシを維持しながら、分散機械学習を実現するための変革的なアプローチとして登場した。
本稿では,エッジサーバへの依存を排除し,これらの制約を克服する新しいFL手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T20:42:16Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - ON-DEMAND-FL: A Dynamic and Efficient Multi-Criteria Federated Learning
Client Deployment Scheme [37.099990745974196]
フェデレート学習のためのクライアントデプロイメントアプローチであるOn-Demand-FLを導入する。
私たちはDockerのようなコンテナ技術を使って効率的な環境を構築しています。
遺伝的アルゴリズム(GA)は多目的最適化問題を解決するために用いられる。
論文 参考訳(メタデータ) (2022-11-05T13:41:19Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Cost-Effective Federated Learning in Mobile Edge Networks [37.16466118235272]
フェデレートラーニング(FL)は、多くのモバイルデバイスが生データを共有せずに協調的にモデルを学習できる分散ラーニングパラダイムである。
本研究は,モバイルエッジネットワークにおける適応FLの設計手法を解析し,本質的な制御変数を最適に選択し,総コストを最小化する。
我々は,収束関連未知パラメータを学習するために,低コストなサンプリングベースアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-12T03:02:24Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。