論文の概要: Collaborative Pure Exploration in Kernel Bandit
- arxiv url: http://arxiv.org/abs/2110.15771v1
- Date: Fri, 29 Oct 2021 13:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 18:05:11.402993
- Title: Collaborative Pure Exploration in Kernel Bandit
- Title(参考訳): カーネルバンドにおける協調的純粋探索
- Authors: Yihan Du, Wei Chen, Yuko Yuroki, Longbo Huang
- Abstract要約: カーネルバンド問題(CoPE-KB)における協調的純粋探索の定式化
限られたコミュニケーションと一般的な報酬関数の下で、マルチエージェントのマルチタスク決定のための新しいモデルを提供する。
我々のアルゴリズムは、計算と通信の効率を同時に達成するために、革新的で効率的なカーネル化推定器を備えている。
- 参考スコア(独自算出の注目度): 29.158502306774523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we formulate a Collaborative Pure Exploration in Kernel Bandit
problem (CoPE-KB), which provides a novel model for multi-agent multi-task
decision making under limited communication and general reward functions, and
is applicable to many online learning tasks, e.g., recommendation systems and
network scheduling. We consider two settings of CoPE-KB, i.e., Fixed-Confidence
(FC) and Fixed-Budget (FB), and design two optimal algorithms CoopKernelFC (for
FC) and CoopKernelFB (for FB). Our algorithms are equipped with innovative and
efficient kernelized estimators to simultaneously achieve computation and
communication efficiency. Matching upper and lower bounds under both the
statistical and communication metrics are established to demonstrate the
optimality of our algorithms. The theoretical bounds successfully quantify the
influences of task similarities on learning acceleration and only depend on the
effective dimension of the kernelized feature space. Our analytical techniques,
including data dimension decomposition, linear structured instance
transformation and (communication) round-speedup induction, are novel and
applicable to other bandit problems. Empirical evaluations are provided to
validate our theoretical results and demonstrate the performance superiority of
our algorithms.
- Abstract(参考訳): 本稿では,ケルネルバンド問題における協調的純粋探索法(CoPE-KB)を定式化し,限られたコミュニケーションと一般的な報酬関数の下でのマルチエージェントマルチタスク決定の新しいモデルを提供し,レコメンデーションシステムやネットワークスケジューリングなど,多くのオンライン学習タスクに適用できることを示す。
我々は,CPE-KB,すなわちFB(Fixed-Confidence)とFB(Fixed-Budget)の2つの設定を検討し,最適なアルゴリズムであるCoopKernelFC(FC)とCoopKernelFB(FB)を設計する。
提案手法は,計算効率と通信効率を同時に達成するために,革新的で効率的なカーネル推定器を備えている。
アルゴリズムの最適性を示すため, 統計的およびコミュニケーションの両指標の下で, 上界と下界をマッチングする手法を確立した。
理論的境界は、タスク類似性の学習加速への影響を定量化し、カーネル化された特徴空間の有効次元にのみ依存する。
データ次元分解、線形構造化インスタンス変換、および(通信)ラウンドスピードアップ誘導を含む分析手法は、他のバンディット問題に適用可能であり、新規である。
理論的結果を検証し,アルゴリズムの性能上の優位性を実証するための実証評価を行った。
関連論文リスト
- Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Q-SHED: Distributed Optimization at the Edge via Hessian Eigenvectors
Quantization [5.404315085380945]
ニュートン型(NT)法は、DO問題における堅牢な収束率の実現要因として提唱されている。
インクリメンタルなヘッセン固有ベクトル量子化に基づく新しいビット割り当て方式を特徴とする、DOのための元のNTアルゴリズムであるQ-SHEDを提案する。
Q-SHEDはコンバージェンスに必要な通信ラウンド数を最大60%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-18T10:15:03Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - CONetV2: Efficient Auto-Channel Size Optimization for CNNs [35.951376988552695]
本研究は,チャネルサイズのマイクロサーチ空間を調べることにより,計算制約のある環境において効率的な手法を提案する。
チャネルサイズ最適化に際し、ネットワークの異なる接続層内の依存関係を抽出する自動アルゴリズムを設計する。
また、テスト精度と高い相関性を持ち、個々のネットワーク層を解析できる新しいメトリクスも導入する。
論文 参考訳(メタデータ) (2021-10-13T16:17:19Z) - Distributed Optimization, Averaging via ADMM, and Network Topology [0.0]
センサローカライゼーションの現実問題において,ネットワークトポロジと異なるアルゴリズムの収束率の関係について検討する。
また、ADMMと持ち上げマルコフ連鎖の間の興味深い関係を示すとともに、その収束を明示的に特徴づける。
論文 参考訳(メタデータ) (2020-09-05T21:44:39Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Communication-Efficient Distributed Deep Learning: A Comprehensive
Survey [22.42450750097714]
本稿では,コミュニケーション効率のよい分散学習アルゴリズムの総合的な調査を行う。
まず,データ並列分散トレーニングアルゴリズムの分類法を提案する。
次に、これらの4次元の問題に対処する最先端の研究について検討する。
論文 参考訳(メタデータ) (2020-03-10T05:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。