論文の概要: Context-Aware Online Client Selection for Hierarchical Federated
Learning
- arxiv url: http://arxiv.org/abs/2112.00925v2
- Date: Fri, 3 Dec 2021 16:15:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 12:25:54.874846
- Title: Context-Aware Online Client Selection for Hierarchical Federated
Learning
- Title(参考訳): 階層型連合学習のためのコンテキスト対応オンラインクライアント選択
- Authors: Zhe Qu, Rui Duan, Lixing Chen, Jie Xu, Zhuo Lu and Yao Liu
- Abstract要約: フェデレートラーニング(FL)は、データプライバシ問題に対処するための魅力的なフレームワークだと考えられている。
フェデレートラーニング(FL)は、データプライバシ問題に対処するための魅力的なフレームワークだと考えられている。
- 参考スコア(独自算出の注目度): 33.205640790962505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has been considered as an appealing framework to
tackle data privacy issues of mobile devices compared to conventional Machine
Learning (ML). Using Edge Servers (ESs) as intermediaries to perform model
aggregation in proximity can reduce the transmission overhead, and it enables
great potentials in low-latency FL, where the hierarchical architecture of FL
(HFL) has been attracted more attention. Designing a proper client selection
policy can significantly improve training performance, and it has been
extensively used in FL studies. However, to the best of our knowledge, there
are no studies focusing on HFL. In addition, client selection for HFL faces
more challenges than conventional FL, e.g., the time-varying connection of
client-ES pairs and the limited budget of the Network Operator (NO). In this
paper, we investigate a client selection problem for HFL, where the NO learns
the number of successful participating clients to improve the training
performance (i.e., select as many clients in each round) as well as under the
limited budget on each ES. An online policy, called Context-aware Online Client
Selection (COCS), is developed based on Contextual Combinatorial Multi-Armed
Bandit (CC-MAB). COCS observes the side-information (context) of local
computing and transmission of client-ES pairs and makes client selection
decisions to maximize NO's utility given a limited budget. Theoretically, COCS
achieves a sublinear regret compared to an Oracle policy on both strongly
convex and non-convex HFL. Simulation results also support the efficiency of
the proposed COCS policy on real-world datasets.
- Abstract(参考訳): フェデレートラーニング(FL)は、従来の機械学習(ML)と比較してモバイルデバイスのデータプライバシ問題に対処するための魅力的なフレームワークと考えられている。
エッジサーバ(ES)を中間体として、近接してモデルアグリゲーションを行うと、送信オーバーヘッドが減少し、FL(HFL)の階層的アーキテクチャが注目される低遅延FLにおいて大きなポテンシャルが得られる。
適切なクライアント選択ポリシーを設計すれば、トレーニング性能が大幅に向上し、FL研究で広く利用されている。
しかし、私たちの知る限りでは、HFLに焦点を当てた研究はない。
さらに、HFL のクライアント選択は従来の FL よりも多くの課題に直面している。例えば、クライアント-ES ペアの時間的変化と Network Operator (NO) の限られた予算である。
本稿では,HFLにおけるクライアント選択問題について検討する。NOは,各ESの限られた予算の下で,トレーニング性能の向上(すなわち,各ラウンドにおけるクライアント数の選択)のために,成功したクライアント数を学ぶ。
Contextual Combinatorial Multi-Armed Bandit (CC-MAB) に基づいたオンラインポリシーである Context-aware Online Client Selection (COCS) が開発されている。
COCSは、ローカルコンピューティングの側面情報(コンテキスト)とクライアント-ESペアの送信を観察し、限られた予算でNOの効用を最大化するクライアント選択決定を行う。
理論的には、COCS は強凸 HFL と非凸 HFL の両方に関する Oracle の方針と比較して、サブ線形後悔を達成している。
シミュレーション結果は、実世界のデータセットに対するCOCSポリシーの効率性も支援する。
関連論文リスト
- Novel clustered federated learning based on local loss [14.380553970274242]
本稿では,学習におけるデータ分布を評価するための新しい指標LCFLを提案する。
学習要件と整合し、プライバシー上の懸念に正確に対応し、より正確な分類を提供する。
論文 参考訳(メタデータ) (2024-07-12T15:37:05Z) - HierSFL: Local Differential Privacy-aided Split Federated Learning in
Mobile Edge Computing [7.180235086275924]
フェデレートラーニング(Federated Learning)は、データのプライバシを維持しながらユーザデータから学ぶための、有望なアプローチである。
Split Federated Learningは、クライアントが中間モデルトレーニング結果をクラウドサーバにアップロードして、協調的なサーバ-クライアントモデルのトレーニングを行う。
この手法は、モデルトレーニングへのリソース制約のあるクライアントの参加を促進するだけでなく、トレーニング時間と通信オーバーヘッドも増大させる。
我々は,階層的分割フェデレート学習(HierSFL)と呼ばれる新しいアルゴリズムを提案し,エッジとクラウドのフェーズでアマルガメートをモデル化する。
論文 参考訳(メタデータ) (2024-01-16T09:34:10Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Collaborating Heterogeneous Natural Language Processing Tasks via
Federated Learning [55.99444047920231]
提案するATCフレームワークは, 各種ベースライン手法と比較して, 大幅な改善を実現している。
自然言語理解(NLU)タスクと自然言語生成(NLG)タスクを対象とする,広く使用されている6つのデータセットについて,広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-12T09:27:50Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Budgeted Online Selection of Candidate IoT Clients to Participate in
Federated Learning [33.742677763076]
フェデレートラーニング(FL)は、モデルパラメータがクライアントデータの代わりに交換されるアーキテクチャである。
FLは、コミュニケーションラウンドを通じてクライアントと通信することで、グローバルモデルをトレーニングする。
最適な候補クライアントとIoTクライアントアラームアプリケーションを見つけるために,オンラインステートフルFLを提案する。
論文 参考訳(メタデータ) (2020-11-16T06:32:31Z) - Hybrid Federated and Centralized Learning [25.592568132720157]
フェデレートラーニング(FL)により、クライアントはデータセット全体ではなく、モデル更新のみをPSに送信できる。
このようにして、FLは学習をエッジレベルに持ち込み、クライアント側で強力な計算リソースを必要とします。
我々は、学習モデルを効果的に訓練するために、新しいハイブリッド・フェデレーション・集中型学習(HFCL)フレームワークによってこの問題に対処する。
論文 参考訳(メタデータ) (2020-11-13T13:11:04Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z) - Client Selection and Bandwidth Allocation in Wireless Federated Learning
Networks: A Long-Term Perspective [8.325089307976654]
本稿では,従来の無線ネットワークにおけるフェデレーション学習(FL)について検討し,学習クライアントがコーディネートサーバに共通の無線リンクを共有して,そのローカルデータを用いてフェデレーションモデルトレーニングを行う。
このような無線連系学習ネットワーク(WFLN)において、学習性能の最適化は、無線とクライアントのエネルギー資源が限られているため、クライアントの選択方法と学習ラウンド毎に選択したクライアント間の帯域幅の割り当てに大きく依存する。
論文 参考訳(メタデータ) (2020-04-09T01:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。