論文の概要: From Learning to Analytics: Improving Model Efficacy with Goal-Directed Client Selection
- arxiv url: http://arxiv.org/abs/2404.00371v1
- Date: Sat, 30 Mar 2024 13:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 04:10:32.476560
- Title: From Learning to Analytics: Improving Model Efficacy with Goal-Directed Client Selection
- Title(参考訳): 学習から分析へ:ゴール指向のクライアント選択によるモデル効率の改善
- Authors: Jingwen Tong, Zhenzhen Chen, Liqun Fu, Jun Zhang, Zhu Han,
- Abstract要約: フェデレートラーニング(FL)は、分散クライアント間でグローバルモデルを学ぶための魅力的なパラダイムである。
クライアントのローカルデータを用いて訓練されたグローバルモデルの効果的な評価を可能にするクローズドループモデル分析フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.257066178498984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an appealing paradigm for learning a global model among distributed clients while preserving data privacy. Driven by the demand for high-quality user experiences, evaluating the well-trained global model after the FL process is crucial. In this paper, we propose a closed-loop model analytics framework that allows for effective evaluation of the trained global model using clients' local data. To address the challenges posed by system and data heterogeneities in the FL process, we study a goal-directed client selection problem based on the model analytics framework by selecting a subset of clients for the model training. This problem is formulated as a stochastic multi-armed bandit (SMAB) problem. We first put forth a quick initial upper confidence bound (Quick-Init UCB) algorithm to solve this SMAB problem under the federated analytics (FA) framework. Then, we further propose a belief propagation-based UCB (BP-UCB) algorithm under the democratized analytics (DA) framework. Moreover, we derive two regret upper bounds for the proposed algorithms, which increase logarithmically over the time horizon. The numerical results demonstrate that the proposed algorithms achieve nearly optimal performance, with a gap of less than 1.44% and 3.12% under the FA and DA frameworks, respectively.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間でグローバルモデルを学ぶための魅力的なパラダイムである。
高品質なユーザエクスペリエンスの要求により、FLプロセスの後、十分に訓練されたグローバルモデルを評価することが重要です。
本稿では,クライアントのローカルデータを用いて訓練されたグローバルモデルの効果的な評価を可能にするクローズドループモデル解析フレームワークを提案する。
FLプロセスにおけるシステムとデータの不均一性による課題に対処するため,モデル解析フレームワークに基づく目標指向のクライアント選択問題について,モデル学習用クライアントのサブセットを選択して検討した。
この問題は確率的多重武装バンディット(SMAB)問題として定式化されている。
我々はまず、このSMAB問題をフェデレート分析(FA)フレームワークで解くために、初期アッパー信頼境界(Quick-Init UCB)アルゴリズムを高速に導入した。
さらに,民主化分析(DA)フレームワークを用いて,信念伝播に基づくUPB(BP-UCB)アルゴリズムを提案する。
さらに,提案アルゴリズムに対する2つの後悔の上限を導出し,時間的地平線上で対数的に増大する。
数値的な結果から,提案アルゴリズムはFAフレームワークとDAフレームワークでそれぞれ1.44%未満と3.12%未満のギャップを有するほぼ最適な性能を達成できた。
関連論文リスト
- Distributionally Robust Clustered Federated Learning: A Case Study in Healthcare [9.433126190164224]
CS-RCFL(Cross-silo Robust Clustered Federated Learning)と呼ばれる新しいアルゴリズムを導入する。
我々は,各クライアントの経験的分布の周囲にあいまいな集合を構築し,ローカルデータの分布シフトをキャプチャする。
そこで我々は,モデルに依存しない整数分数プログラムを提案し,クライアントの連立への最適分布的ロバストなクラスタリングを決定する。
論文 参考訳(メタデータ) (2024-10-09T16:25:01Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Federated Learning While Providing Model as a Service: Joint Training
and Inference Optimization [30.305956110710266]
フェデレーション学習は、分散クライアント間のモデルのトレーニングを可能にする上で有益である。
既存の作業は、クライアントの限られたリソースの下でのモデルトレーニングと推論の共存を見落としている。
本稿では,クライアントにおける推論性能を最大化するために,モデルトレーニングと推論の協調最適化に焦点を当てる。
論文 参考訳(メタデータ) (2023-12-20T09:27:09Z) - FedHB: Hierarchical Bayesian Federated Learning [11.936836827864095]
フェデレートラーニング(FL)に対する新しい階層的ベイズ的アプローチを提案する。
本モデルは階層ベイズモデルを用いてクライアントの局所データの生成過程を合理的に記述する。
ブロック座標FLアルゴリズムは、O(sqrtt)$の速度で目的の最適値に収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T18:21:41Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。