論文の概要: Adaptive Client Selection via Q-Learning-based Whittle Index in Wireless Federated Learning
- arxiv url: http://arxiv.org/abs/2509.13933v1
- Date: Wed, 17 Sep 2025 13:04:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.843086
- Title: Adaptive Client Selection via Q-Learning-based Whittle Index in Wireless Federated Learning
- Title(参考訳): 無線フェデレーション学習におけるQ-Learning-based Whittle Indexによる適応的クライアント選択
- Authors: Qiyue Li, Yingxin Liu, Hang Qi, Jieping Luo, Zhizhang Liu, Jingjin Wu,
- Abstract要約: 無線フェデレートラーニング(FL)におけるクライアント選択問題の検討
We propose a scalable and efficient approach called the Whittle Index Learning in Federated Q-learning (WILF-Q)。
- 参考スコア(独自算出の注目度): 4.602470297311098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the client selection problem in wireless Federated Learning (FL), with the objective of reducing the total required time to achieve a certain level of learning accuracy. Since the server cannot observe the clients' dynamic states that can change their computation and communication efficiency, we formulate client selection as a restless multi-armed bandit problem. We propose a scalable and efficient approach called the Whittle Index Learning in Federated Q-learning (WILF-Q), which uses Q-learning to adaptively learn and update an approximated Whittle index associated with each client, and then selects the clients with the highest indices. Compared to existing approaches, WILF-Q does not require explicit knowledge of client state transitions or data distributions, making it well-suited for deployment in practical FL settings. Experiment results demonstrate that WILF-Q significantly outperforms existing baseline policies in terms of learning efficiency, providing a robust and efficient approach to client selection in wireless FL.
- Abstract(参考訳): 無線フェデレート・ラーニング(FL)におけるクライアント選択問題は,学習精度の一定レベルを達成するのに要する時間を短縮することを目的として検討する。
サーバは計算と通信効率を変化させるクライアントの動的状態を観測できないため、クライアントの選択をレスレスマルチアームバンディット問題として定式化する。
本稿では,Whittle Index Learning in Federated Q-learning (WILF-Q) と呼ばれるスケーラブルで効率的な手法を提案する。
既存のアプローチと比較して、WILF-Qはクライアントの状態遷移やデータ分散に関する明確な知識を必要としないため、実際のFL設定でのデプロイメントに適しています。
実験の結果、WILF-Qは学習効率において既存のベースラインポリシーを著しく上回り、無線FLにおけるクライアント選択に対する堅牢で効率的なアプローチを提供することがわかった。
関連論文リスト
- RIFLES: Resource-effIcient Federated LEarning via Scheduling [4.358456799125694]
Federated Learning(FL)は、分散クライアント間の分散協調モデルトレーニングを可能にする、プライバシ保護機械学習技術である。
現在の選択戦略は、過去または現在の相互作用に基づいているという点で、自然界においてミオピックである。
RIFLESは、クライアント選択プロセスをサポートするために、新しい可用性予測層を構築します。
論文 参考訳(メタデータ) (2025-05-19T14:26:33Z) - Query-based Knowledge Transfer for Heterogeneous Learning Environments [50.45210784447839]
クエリベースの知識伝達(QKT)という新しいフレームワークを提案する。
QKTは、データ交換なしで特定のクライアントのニーズを満たすための、適切な知識獲得を可能にする。
実験の結果,QKTは既存の協調学習方法よりも優れていた。
論文 参考訳(メタデータ) (2025-04-12T13:09:39Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Utilizing Free Clients in Federated Learning for Focused Model
Enhancement [9.370655190768163]
Federated Learning(FL)は、分散機械学習のアプローチで、分散化された異種データのモデルを学ぶ。
我々はこの課題に対処するためにFedALIGN(Federated Adaptive Learning with Inclusion of Global Needs)を提案する。
論文 参考訳(メタデータ) (2023-10-06T18:23:40Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Addressing Client Drift in Federated Continual Learning with Adaptive
Optimization [10.303676184878896]
本稿では,NetTailorを連続学習候補として活用することにより,FCL(Federated Continual Learning)を実現するための枠組みを概説する。
適応型フェデレーション最適化は,クライアントドリフトの悪影響を低減し,CIFAR100,MiniImagenet,Deathlonベンチマーク上での有効性を示す。
論文 参考訳(メタデータ) (2022-03-24T20:00:03Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Budgeted Online Selection of Candidate IoT Clients to Participate in
Federated Learning [33.742677763076]
フェデレートラーニング(FL)は、モデルパラメータがクライアントデータの代わりに交換されるアーキテクチャである。
FLは、コミュニケーションラウンドを通じてクライアントと通信することで、グローバルモデルをトレーニングする。
最適な候補クライアントとIoTクライアントアラームアプリケーションを見つけるために,オンラインステートフルFLを提案する。
論文 参考訳(メタデータ) (2020-11-16T06:32:31Z) - Client Selection and Bandwidth Allocation in Wireless Federated Learning
Networks: A Long-Term Perspective [8.325089307976654]
本稿では,従来の無線ネットワークにおけるフェデレーション学習(FL)について検討し,学習クライアントがコーディネートサーバに共通の無線リンクを共有して,そのローカルデータを用いてフェデレーションモデルトレーニングを行う。
このような無線連系学習ネットワーク(WFLN)において、学習性能の最適化は、無線とクライアントのエネルギー資源が限られているため、クライアントの選択方法と学習ラウンド毎に選択したクライアント間の帯域幅の割り当てに大きく依存する。
論文 参考訳(メタデータ) (2020-04-09T01:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。