論文の概要: An Empirical Evaluation of Federated Contextual Bandit Algorithms
- arxiv url: http://arxiv.org/abs/2303.10218v1
- Date: Fri, 17 Mar 2023 19:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 20:42:42.693492
- Title: An Empirical Evaluation of Federated Contextual Bandit Algorithms
- Title(参考訳): フェデレーション付きコンテキスト帯域幅アルゴリズムの実証評価
- Authors: Alekh Agarwal, H. Brendan McMahan, Zheng Xu
- Abstract要約: フェデレートされた学習は、ユーザが関心のあるアプリケーションと対話するときに生成される暗黙の信号を使って行うことができる。
我々は,フェデレートされた設定のための集中的な設定から,顕著な文脈的帯域幅アルゴリズムの変種を開発する。
本実験は, 探索・探索のトレードオフのバランスをとる上で, シンプルで一般的なソフトマックスの驚くべき有効性を明らかにした。
- 参考スコア(独自算出の注目度): 27.275089644378376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the adoption of federated learning increases for learning from sensitive
data local to user devices, it is natural to ask if the learning can be done
using implicit signals generated as users interact with the applications of
interest, rather than requiring access to explicit labels which can be
difficult to acquire in many tasks. We approach such problems with the
framework of federated contextual bandits, and develop variants of prominent
contextual bandit algorithms from the centralized seting for the federated
setting. We carefully evaluate these algorithms in a range of scenarios
simulated using publicly available datasets. Our simulations model typical
setups encountered in the real-world, such as various misalignments between an
initial pre-trained model and the subsequent user interactions due to
non-stationarity in the data and/or heterogeneity across clients. Our
experiments reveal the surprising effectiveness of the simple and commonly used
softmax heuristic in balancing the well-know exploration-exploitation tradeoff
across the breadth of our settings.
- Abstract(参考訳): 局所的なセンシティブなデータからユーザデバイスへの学習において、連合学習の採用が増加するにつれて、多くのタスクで取得が困難な明示的なラベルへのアクセスを必要とせず、ユーザが関心のあるアプリケーションと対話する際に生成された暗黙のシグナルを使って学習を行うことができるかどうかを問うのは自然である。
フェデレーション・コンテキスト・バンディット(federated context bandit)の枠組みを用いてこのような問題にアプローチし、フェデレーション・セッティングの集中的設定から顕著なコンテキスト・バンディットアルゴリズムの変種を開発する。
我々はこれらのアルゴリズムを公開データセットを用いてシミュレートした様々なシナリオで慎重に評価する。
シミュレーションモデルでは,初期事前学習モデルとそれに続くユーザインタラクションとのさまざまな不一致や,クライアント間のデータの非定常性,あるいは不均一性など,実世界で遭遇する典型的なセットアップをモデル化する。
実験の結果, 簡単なソフトマックスヒューリスティックが, 知識の豊富な探査・探査トレードオフのバランスをとる上で, 驚くほどの有効性を示した。
関連論文リスト
- Resilience to the Flowing Unknown: an Open Set Recognition Framework for Data Streams [6.7236795813629]
本研究では、分類とクラスタリングを組み合わせて、ストリーミングシナリオにおけるテキストオーバ占有空間問題に対処するオープンセット認識フレームワークの適用について検討する。
論文 参考訳(メタデータ) (2024-10-31T11:06:54Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Actively Discovering New Slots for Task-oriented Conversation [19.815466126158785]
本稿では,ループ内学習を実現するため,情報抽出方式で汎用的なスロットタスクを提案する。
我々は既存の言語ツールを活用し、対応するラベルが弱い監視信号として利用される値候補を抽出する。
いくつかの公開データセットに対して広範な実験を行い、競合するベースラインを多数比較して手法を実証する。
論文 参考訳(メタデータ) (2023-05-06T13:33:33Z) - Federated Gradient Matching Pursuit [17.695717854068715]
従来の機械学習技術では、1つのサーバまたはデータハブ上のすべてのトレーニングデータを集中化する必要がある。
特に、FL(Federated Learning)は、ローカルクライアントでトレーニングデータを保持しながら、共有モデルを学習するためのソリューションを提供する。
本稿では,FL設定における分散制約最小化問題を解くために,新しいアルゴリズムフレームワークFedGradMPを提案する。
論文 参考訳(メタデータ) (2023-02-20T16:26:29Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Hyperspherical embedding for novel class classification [1.5952956981784217]
本稿では,正規化ソフトマックス損失下での潜在空間の表現に制約に基づくアプローチを提案する。
本研究では,メトリクス学習と正規化ソフトマックス損失の両方を用いて,異なるデータセット上の未知のクラスを分類するための提案手法を実験的に検証した。
この結果から,提案した戦略は,ペアワイズ学習を必要とせず,メトリック学習戦略よりも優れた分類結果を提供するため,より大規模なクラスで効率的に学習可能であることが示唆された。
論文 参考訳(メタデータ) (2021-02-05T15:42:13Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Accurate and Fast Federated Learning via Combinatorial Multi-Armed
Bandits [11.972842369911872]
フェデレートラーニングは、偏りのあるモデル平均化と、クライアントサンプリングにおける事前知識の欠如に関わる。
我々は,マルチアームバンディットに基づくクライアントサンプリングを用いて,事前知識を活用することにより,この2つの課題に対処するFedCMという新しいアルゴリズムを提案する。
我々は,FedCMの精度と収束率において,最先端のアルゴリズムを最大37.25%,4.17倍に向上したことを示す。
論文 参考訳(メタデータ) (2020-12-06T14:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。