論文の概要: Federated Linear Contextual Bandits with Heterogeneous Clients
- arxiv url: http://arxiv.org/abs/2403.00116v1
- Date: Thu, 29 Feb 2024 20:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 19:05:28.680328
- Title: Federated Linear Contextual Bandits with Heterogeneous Clients
- Title(参考訳): ヘテロジニアスクライアントを用いたフェデレーション線形コンテキストバンディット
- Authors: Ethan Blaser, Chuanhao Li, Hongning Wang
- Abstract要約: フェデレートされたバンディット学習は、プライベートで効率的で分散化されたオンライン学習のための有望なフレームワークである。
我々は,フェデレーション学習環境下での協調的バンディット学習のためのクライアントをクラスタ化する,異種クライアントのためのフェデレーション付きバンディットの新しいアプローチを提案する。
提案アルゴリズムは,すべてのクライアントに対して,連合学習下での通信プロトコルを前提として,非自明なサブ線形後悔と通信コストを実現する。
- 参考スコア(独自算出の注目度): 44.20391610280271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The demand for collaborative and private bandit learning across multiple
agents is surging due to the growing quantity of data generated from
distributed systems. Federated bandit learning has emerged as a promising
framework for private, efficient, and decentralized online learning. However,
almost all previous works rely on strong assumptions of client homogeneity,
i.e., all participating clients shall share the same bandit model; otherwise,
they all would suffer linear regret. This greatly restricts the application of
federated bandit learning in practice. In this work, we introduce a new
approach for federated bandits for heterogeneous clients, which clusters
clients for collaborative bandit learning under the federated learning setting.
Our proposed algorithm achieves non-trivial sub-linear regret and communication
cost for all clients, subject to the communication protocol under federated
learning that at anytime only one model can be shared by the server.
- Abstract(参考訳): 複数のエージェントにまたがる協調的およびプライベートなバンディット学習の需要は、分散システムから生成されるデータ量の増加によって急増している。
federated bandit learningは、プライベートで効率的、分散化されたオンライン学習のための有望なフレームワークとして登場した。
しかし、これまでのほとんど全ての研究は、クライアントの同質性の強い仮定、すなわち、すべての参加するクライアントは同じバンドモデルを共有することに依存していた。
これは、実際にフェデレートされたバンディット学習の適用を著しく制限する。
本研究では,フェデレーション学習環境下での協調的バンディット学習のためのクライアントをクラスタ化するヘテロジニアスクライアントのためのフェデレーション・バンディットの新しいアプローチを提案する。
提案アルゴリズムは,サーバが共有できるモデルが1つしかないことをフェデレートした学習の下で,すべてのクライアントに対して,非自明なサブ線形後悔と通信コストを実現する。
関連論文リスト
- Incentivized Communication for Federated Bandits [67.4682056391551]
我々は,サーバがインセンティブを提供することでクライアントにデータを共有する動機付けを行う,フェデレートされた盗賊に対するインセンティブ付きコミュニケーション問題を導入する。
本稿では,実証可能な通信とインセンティブコスト保証により,ほぼ最適の後悔を実現する,最初のインセンティブ付き通信プロトコルであるInc-FedUCBを提案する。
論文 参考訳(メタデータ) (2023-09-21T00:59:20Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - FedHP: Heterogeneous Federated Learning with Privacy-preserving [0.0]
フェデレーション学習は分散機械学習環境であり、パラメータを交換するだけで、クライアントがプライベートデータを共有せずにコラボレーティブなトレーニングを完了できるようにする。
本稿では,事前学習されたモデルをバックボーンとして,完全に接続されたレイヤをヘッドとして構成する,新しいフェデレーション学習手法を提案する。
勾配空間に基づくパラメータではなく、クラスの埋め込みベクトルを共有することで、クライアントはプライベートデータにより適応でき、サーバとクライアント間の通信においてより効率的になります。
論文 参考訳(メタデータ) (2023-01-27T13:32:17Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Asynchronous Upper Confidence Bound Algorithms for Federated Linear
Bandits [35.47147821038291]
本稿では,同種クライアントと異種クライアントの集合に対する非同期モデル更新と通信を行う汎用フレームワークを提案する。
この分散学習フレームワークにおける後悔とコミュニケーションのコストに関する厳密な理論的分析が提供される。
論文 参考訳(メタデータ) (2021-10-04T14:01:32Z) - Federated Self-Supervised Contrastive Learning via Ensemble Similarity
Distillation [42.05438626702343]
本稿では,未ラベルのクライアントデータによる良好な表現空間の学習の実現可能性について検討する。
本稿では,アーキテクチャに依存しないローカルトレーニングとコミュニケーション効率のよいグローバルアグリゲーションをサポートする,自己指導型コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-29T02:13:22Z) - Accurate and Fast Federated Learning via Combinatorial Multi-Armed
Bandits [11.972842369911872]
フェデレートラーニングは、偏りのあるモデル平均化と、クライアントサンプリングにおける事前知識の欠如に関わる。
我々は,マルチアームバンディットに基づくクライアントサンプリングを用いて,事前知識を活用することにより,この2つの課題に対処するFedCMという新しいアルゴリズムを提案する。
我々は,FedCMの精度と収束率において,最先端のアルゴリズムを最大37.25%,4.17倍に向上したことを示す。
論文 参考訳(メタデータ) (2020-12-06T14:05:14Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。