論文の概要: Asynchronous Upper Confidence Bound Algorithms for Federated Linear
Bandits
- arxiv url: http://arxiv.org/abs/2110.01463v1
- Date: Mon, 4 Oct 2021 14:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:24:26.179721
- Title: Asynchronous Upper Confidence Bound Algorithms for Federated Linear
Bandits
- Title(参考訳): フェデレーション線形バンディットに対する非同期上信頼境界アルゴリズム
- Authors: Chuanhao Li and Hongning Wang
- Abstract要約: 本稿では,同種クライアントと異種クライアントの集合に対する非同期モデル更新と通信を行う汎用フレームワークを提案する。
この分散学習フレームワークにおける後悔とコミュニケーションのコストに関する厳密な理論的分析が提供される。
- 参考スコア(独自算出の注目度): 35.47147821038291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear contextual bandit is a popular online learning problem. It has been
mostly studied in centralized learning settings. With the surging demand of
large-scale decentralized model learning, e.g., federated learning, how to
retain regret minimization while reducing communication cost becomes an open
challenge. In this paper, we study linear contextual bandit in a federated
learning setting. We propose a general framework with asynchronous model update
and communication for a collection of homogeneous clients and heterogeneous
clients, respectively. Rigorous theoretical analysis is provided about the
regret and communication cost under this distributed learning framework; and
extensive empirical evaluations demonstrate the effectiveness of our solution.
- Abstract(参考訳): 線形文脈帯域幅はオンライン学習の一般的な問題である。
主に集中学習環境で研究されている。
大規模分散モデル学習(例えばフェデレーション学習)の需要が急増する中、通信コストを削減しながら後悔を最小限に抑える方法が課題となっている。
本稿では,連合学習環境における線形文脈バンディットについて検討する。
本稿では,均質なクライアントと異質なクライアントの集合に対して,非同期モデル更新と通信を行う汎用フレームワークを提案する。
この分散学習フレームワークにおける後悔とコミュニケーションのコストについて,厳密な理論的分析を行い,提案手法の有効性を実証した。
関連論文リスト
- Accelerated Stochastic ExtraGradient: Mixing Hessian and Gradient Similarity to Reduce Communication in Distributed and Federated Learning [50.382793324572845]
分散コンピューティングはデバイス間の通信を伴うため、効率性とプライバシという2つの重要な問題を解決する必要がある。
本稿では,データ類似性とクライアントサンプリングのアイデアを取り入れた新しい手法について分析する。
プライバシー問題に対処するために,付加雑音の手法を適用し,提案手法の収束への影響を解析する。
論文 参考訳(メタデータ) (2024-09-22T00:49:10Z) - Federated Linear Contextual Bandits with Heterogeneous Clients [44.20391610280271]
フェデレートされたバンディット学習は、プライベートで効率的で分散化されたオンライン学習のための有望なフレームワークである。
我々は,フェデレーション学習環境下での協調的バンディット学習のためのクライアントをクラスタ化する,異種クライアントのためのフェデレーション付きバンディットの新しいアプローチを提案する。
提案アルゴリズムは,すべてのクライアントに対して,連合学習下での通信プロトコルを前提として,非自明なサブ線形後悔と通信コストを実現する。
論文 参考訳(メタデータ) (2024-02-29T20:39:31Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Communication Efficient Distributed Learning for Kernelized Contextual
Bandits [58.78878127799718]
分散環境でのカーネル化されたコンテキスト帯域の学習における通信効率の課題に対処する。
我々は、エージェントが再現されたカーネルヒルベルト空間で協調的に探索できるようにすることにより、非線形報酬写像を考える。
我々は, 後悔とコミュニケーションの両コストにおいて, アルゴリズムがサブ線形レートを達成できることを厳格に証明した。
論文 参考訳(メタデータ) (2022-06-10T01:39:15Z) - Communication Efficient Federated Learning for Generalized Linear
Bandits [39.1899551748345]
連合学習環境下での一般化線形バンディットモデルについて検討する。
ローカルな更新とオフラインなリグレッションにオンラインのレグレッションを利用する通信効率の高いソリューションフレームワークを提案する。
我々のアルゴリズムは, 後悔とコミュニケーションの両コストにおいて, サブ線形レートが得られる。
論文 参考訳(メタデータ) (2022-02-02T15:31:45Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。