論文の概要: Learner Referral for Cost-Effective Federated Learning Over Hierarchical
IoT Networks
- arxiv url: http://arxiv.org/abs/2307.09977v1
- Date: Wed, 19 Jul 2023 13:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 13:57:58.425585
- Title: Learner Referral for Cost-Effective Federated Learning Over Hierarchical
IoT Networks
- Title(参考訳): 階層型IoTネットワーク上でのコスト効果フェデレーション学習のための学習者参照
- Authors: Yulan Gao, Ziqiang Ye, Yue Xiao, and Wei Xiang
- Abstract要約: 本稿では,連合選択(LRef-FedCS),通信資源,局所モデル精度(LMAO)手法を支援する。
提案したLRef-FedCSアプローチは,高いグローバル精度とコスト削減のバランスをとることができる。
- 参考スコア(独自算出の注目度): 21.76836812021954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paradigm of federated learning (FL) to address data privacy concerns by
locally training parameters on resource-constrained clients in a distributed
manner has garnered significant attention. Nonetheless, FL is not applicable
when not all clients within the coverage of the FL server are registered with
the FL network. To bridge this gap, this paper proposes joint learner referral
aided federated client selection (LRef-FedCS), along with communications and
computing resource scheduling, and local model accuracy optimization (LMAO)
methods. These methods are designed to minimize the cost incurred by the
worst-case participant and ensure the long-term fairness of FL in hierarchical
Internet of Things (HieIoT) networks. Utilizing the Lyapunov optimization
technique, we reformulate the original problem into a stepwise joint
optimization problem (JOP). Subsequently, to tackle the mixed-integer
non-convex JOP, we separatively and iteratively address LRef-FedCS and LMAO
through the centralized method and self-adaptive global best harmony search
(SGHS) algorithm, respectively. To enhance scalability, we further propose a
distributed LRef-FedCS approach based on a matching game to replace the
centralized method described above. Numerical simulations and experimental
results on the MNIST/CIFAR-10 datasets demonstrate that our proposed LRef-FedCS
approach could achieve a good balance between pursuing high global accuracy and
reducing cost.
- Abstract(参考訳): リソース制約のあるクライアントのローカルなトレーニングパラメータによるデータプライバシ問題に対処するフェデレートラーニング(FL)のパラダイムが注目されている。
それでも、FLサーバのカバレッジ内のすべてのクライアントがFLネットワークに登録されていない場合、FLは適用されない。
本稿では,このギャップを埋めるために,連立学習者紹介支援連合クライアント選択(LRef-FedCS)と通信資源スケジューリング,ローカルモデル精度最適化(LMAO)手法を提案する。
これらの方法は、最悪の場合の参加者によるコストを最小限に抑え、階層型モノのインターネット(HieIoT)ネットワークにおけるFLの長期的な公正性を確保するために設計されている。
Lyapunov最適化技術を用いて、元の問題をステップワイド共同最適化問題(JOP)に再構成する。
その後、混合整数の非凸 JOP に取り組むために、それぞれ一元的にLRef-FedCS と LMAO を扱い、自己適応的グローバル・ベスト・ハーモニー・サーチ (SGHS) アルゴリズムを用いる。
拡張性を向上させるため,提案手法は,マッチングゲームに基づく分散LRef-FedCSアプローチにより,上述した集中型手法を置き換える。
mnist/cifar-10データセットの数値シミュレーションと実験結果から,提案手法が高精度追求とコスト削減のバランスを両立できることを示す。
関連論文リスト
- Online Client Scheduling and Resource Allocation for Efficient Federated Edge Learning [9.451084740123198]
フェデレートラーニング(FL)は、エッジデバイスが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、電力、帯域幅などの制約のあるリソースを持つモバイルエッジネットワーク上にFLをデプロイすることは、高いトレーニングレイテンシと低いモデルの精度に悩まされる。
本稿では,資源制約と不確実性の下で,モバイルエッジネットワーク上でのFLの最適なクライアントスケジューリングとリソース割り当てについて検討する。
論文 参考訳(メタデータ) (2024-09-29T01:56:45Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Asymmetrically Decentralized Federated Learning [22.21977974314497]
分散フェデレーションラーニング(DFL)が出現し、ピアツーピア(P2P)通信フレームワークでサーバを破棄する。
本稿では,非対称トポロジに基づくPush-Awareプロトコルを用いたDFedSGPSMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-08T09:46:26Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Generalized Federated Learning via Sharpness Aware Minimization [22.294290071999736]
シャープネス・アウェア・ミニミゼーション(SAM)の局所性に基づく汎用的で効果的なアルゴリズムである textttFedSAM を提案し,局所的およびグローバルなモデルをブリッジする運動量FLアルゴリズムを開発した。
実験により,提案アルゴリズムは既存のFL研究を著しく上回り,学習偏差を著しく低減した。
論文 参考訳(メタデータ) (2022-06-06T13:54:41Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。