論文の概要: Energy-Aware Edge Association for Cluster-based Personalized Federated
Learning
- arxiv url: http://arxiv.org/abs/2202.02727v1
- Date: Sun, 6 Feb 2022 07:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:07:53.844993
- Title: Energy-Aware Edge Association for Cluster-based Personalized Federated
Learning
- Title(参考訳): クラスタ型個人化フェデレーション学習のためのエネルギー対応エッジアソシエーション
- Authors: Y. Li, X. Qin, H. Chen, K. Han and P. Zhang
- Abstract要約: 無線ネットワーク上のフェデレートラーニングは、プライバシ保存モデルトレーニングのために、ネットワークエッジにおけるユビキタスインテリジェンスを活用することによって、データ意識のサービスを可能にする。
我々は、類似した好みのユーザデバイスをグループ化するクラスタ化フェデレーション学習を提案し、各クラスタにパーソナライズされたモデルを提供する。
モデル精度、通信資源割り当て、エネルギー消費を共同で考慮し、精度-コストトレードオフ最適化問題を定式化する。
- 参考スコア(独自算出の注目度): 2.3262774900834606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) over wireless network enables data-conscious services
by leveraging the ubiquitous intelligence at network edge for
privacy-preserving model training. As the proliferation of context-aware
services, the diversified personal preferences causes disagreeing conditional
distributions among user data, which leads to poor inference performance. In
this sense, clustered federated learning is proposed to group user devices with
similar preference and provide each cluster with a personalized model. This
calls for innovative design in edge association that involves user clustering
and also resource management optimization. We formulate an accuracy-cost
trade-off optimization problem by jointly considering model accuracy,
communication resource allocation and energy consumption. To comply with
parameter encryption techniques in FL, we propose an iterative solution
procedure which employs deep reinforcement learning based approach at cloud
server for edge association. The reward function consists of minimized energy
consumption at each base station and the averaged model accuracy of all users.
Under our proposed solution, multiple edge base station are fully exploited to
realize cost efficient personalized federated learning without any prior
knowledge on model parameters. Simulation results show that our proposed
strategy outperforms existing strategies in achieving accurate learning at low
energy cost.
- Abstract(参考訳): 無線ネットワーク上のフェデレーション学習(fl)は、プライバシ保存モデルトレーニングにネットワークエッジのユビキタスインテリジェンスを活用することで、データ意識型サービスを可能にする。
コンテキスト認識サービスの普及に伴い、個人嗜好の多様化はユーザデータ間の条件分布の不一致を引き起こし、推論性能が低下する。
この意味で、クラスタ化されたフェデレーション学習は、同様の好みのユーザデバイスをグループ化し、各クラスタにパーソナライズされたモデルを提供する。
これにより、ユーザクラスタリングとリソース管理の最適化を含むエッジアソシエーションにおける革新的な設計が求められます。
モデル精度,通信資源割当,エネルギー消費を共同で考慮し,精度・コストトレードオフ最適化問題を定式化する。
FLにおけるパラメータ暗号化手法に従うために,エッジアソシエーションのためのクラウドサーバにおける深層強化学習に基づくアプローチを用いた反復解法を提案する。
報酬関数は,各基地局におけるエネルギー消費の最小化と,利用者の平均モデル精度から構成される。
提案手法では,複数のエッジベースステーションを十分に活用し,モデルパラメータの事前知識を必要とせず,コスト効率のよい個人化連合学習を実現する。
シミュレーションの結果,提案手法は,低消費電力で正確な学習を実現するための既存の戦略よりも優れていることがわかった。
関連論文リスト
- Leveraging Federated Learning and Edge Computing for Recommendation
Systems within Cloud Computing Networks [3.36271475827981]
エッジインテリジェンスの鍵となる技術は、フェデレートラーニング(FL)として知られる、プライバシ保護機械学習パラダイムである。
ノード障害とデバイス終了を減らすため、階層的フェデレートラーニング(HFL)フレームワークが提案され、指定されたクラスタリーダが中間モデルアグリゲーションを通じてデータオーナをサポートする。
ユーザエクスペリエンスの品質(QoE)に対するソフトクリックの影響を軽減するため、著者らは、ユーザQoEを包括的なシステムコストとしてモデル化した。
論文 参考訳(メタデータ) (2024-03-05T17:58:26Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Fed-QSSL: A Framework for Personalized Federated Learning under Bitwidth
and Data Heterogeneity [14.313847382199059]
Fed-QSSL (Federated Quantization-based self-supervised learning scheme) はFLシステムの不均一性に対処するために設計された。
Fed-QSSLは、デ量子化、重み付けされたアグリゲーション、再量子化をデプロイし、最終的に、各クライアントのデバイスのデータ分散と特定のインフラストラクチャの両方にパーソナライズされたモデルを作成する。
論文 参考訳(メタデータ) (2023-12-20T19:11:19Z) - ZooPFL: Exploring Black-box Foundation Models for Personalized Federated
Learning [95.64041188351393]
本稿では,限られた資源とパーソナライゼーションの両課題を解決しようと試みる。
個人化フェデレート学習におけるゼロ階最適化を用いたZOOPFLという手法を提案する。
計算コストの削減とパーソナライゼーションの向上を目的として,低次元およびクライアント固有の埋め込みを持つオートエンコーダを組み込む入力手術を提案する。
論文 参考訳(メタデータ) (2023-10-08T12:26:13Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - ON-DEMAND-FL: A Dynamic and Efficient Multi-Criteria Federated Learning
Client Deployment Scheme [37.099990745974196]
フェデレート学習のためのクライアントデプロイメントアプローチであるOn-Demand-FLを導入する。
私たちはDockerのようなコンテナ技術を使って効率的な環境を構築しています。
遺伝的アルゴリズム(GA)は多目的最適化問題を解決するために用いられる。
論文 参考訳(メタデータ) (2022-11-05T13:41:19Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Cost-Effective Federated Learning in Mobile Edge Networks [37.16466118235272]
フェデレートラーニング(FL)は、多くのモバイルデバイスが生データを共有せずに協調的にモデルを学習できる分散ラーニングパラダイムである。
本研究は,モバイルエッジネットワークにおける適応FLの設計手法を解析し,本質的な制御変数を最適に選択し,総コストを最小化する。
我々は,収束関連未知パラメータを学習するために,低コストなサンプリングベースアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-12T03:02:24Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。