論文の概要: Adaptive Estimation of Random Vectors with Bandit Feedback
- arxiv url: http://arxiv.org/abs/2203.16810v1
- Date: Thu, 31 Mar 2022 05:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 16:22:05.534459
- Title: Adaptive Estimation of Random Vectors with Bandit Feedback
- Title(参考訳): 帯域フィードバックを用いたランダムベクトルの適応推定
- Authors: Dipayan Sen, Prashanth L.A. and Aditya Gopalan
- Abstract要約: 平均二乗誤差(MSE)を推定するために逐次学習する問題を考察する。
まず、観測可能な各部分集合に対する MSE の推定値に束縛された指数集中を確立する。
次に、ベストサブセット識別設定において、帯域幅フィードバックによる推定問題をフレーム化する。
- 参考スコア(独自算出の注目度): 24.293485717887283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of sequentially learning to estimate, in the mean
squared error (MSE) sense, a Gaussian $K$-vector of unknown covariance by
observing only $m < K$ of its entries in each round. This reduces to learning
an optimal subset for estimating the entire vector. Towards this, we first
establish an exponential concentration bound for an estimate of the MSE for
each observable subset. We then frame the estimation problem with bandit
feedback in the best-subset identification setting. We propose a variant of the
successive elimination algorithm to cater to the adaptive estimation problem,
and we derive an upper bound on the sample complexity of this algorithm. In
addition, to understand the fundamental limit on the sample complexity of this
adaptive estimation bandit problem, we derive a minimax lower bound.
- Abstract(参考訳): 平均二乗誤差(mse)の意味では、各ラウンドのエントリのわずか$m < k$ を観測することによって、未知共分散のガウス的$k$-ベクトルを推定する逐次学習の問題を考える。
これにより、ベクトル全体の推定に最適な部分集合を学ぶことができる。
そこで我々はまず,観測可能な各部分集合に対するMSEの推定値の指数集中値を確立する。
次に、ベストサブセット識別設定において、推定問題をバンディットフィードバックでフレーム化する。
本稿では,適応推定問題に適合する逐次除去アルゴリズムの変種を提案し,このアルゴリズムのサンプル複雑性に基づく上限を導出する。
さらに、この適応的推定バンドイット問題のサンプル複雑性の基本的な限界を理解するために、ミニマックス下限を導出する。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - GROS: A General Robust Aggregation Strategy [49.1574468325115]
距離空間における推定器を組み合わせるための新しい、非常に一般的な、堅牢な手順が導入された。
最小化が標本を乗っ取ると、同じ(定数まで)準ガウス性が得られることを示す。
GROSの性能は5つのシミュレーション研究により評価した。
論文 参考訳(メタデータ) (2024-02-23T17:00:32Z) - Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - Direct Measure Matching for Crowd Counting [59.66286603624411]
そこで本研究では,予測密度マップを散乱点付基底真理に直接回帰する測度に基づく新しい計数手法を提案する。
本稿では, シンクホーンの測位損失を計測するために設計した, 半平衡型のシンクホーン発散を導出する。
論文 参考訳(メタデータ) (2021-07-04T06:37:33Z) - SNIPS: Solving Noisy Inverse Problems Stochastically [25.567566997688044]
本稿では,線形逆問題の後部分布からサンプルを抽出するSNIPSアルゴリズムを提案する。
我々の解はランゲヴィン力学とニュートン法からのアイデアを取り入れ、事前訓練された最小二乗誤差(MMSE)を利用する。
得られたサンプルは、与えられた測定値と鋭く、詳細で一致しており、それらの多様性は、解決される逆問題に固有の不確実性を明らかにする。
論文 参考訳(メタデータ) (2021-05-31T13:33:21Z) - An Empirical Process Approach to the Union Bound: Practical Algorithms
for Combinatorial and Linear Bandits [34.06611065493047]
本稿では、信頼度と予算設定の固定化において、純探索線形帯域問題に対する近似アルゴリズムを提案する。
サンプルの複雑性がインスタンスの幾何でスケールし、アームの数に縛られた明示的な結合を避けるアルゴリズムを提供する。
また,固定予算設定における線形帯域幅に対する最初のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-21T00:56:33Z) - Learning Minimax Estimators via Online Learning [55.92459567732491]
確率分布のパラメータを推定するミニマックス推定器を設計する際の問題点を考察する。
混合ケースナッシュ平衡を求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-06-19T22:49:42Z) - Explicit Mean-Square Error Bounds for Monte-Carlo and Linear Stochastic
Approximation [4.817429789586127]
基礎となるマルコフ連鎖が可逆で幾何学的にエルゴードである場合でも、誤差列に有界なホーフディングを得ることはできない。
平均二乗誤差は、ステップサイズシーケンスの条件の下で、$O(1/n)$の最適率を達成する。
論文 参考訳(メタデータ) (2020-02-07T01:52:21Z) - Thompson Sampling Algorithms for Mean-Variance Bandits [97.43678751629189]
我々は平均分散MABのためのトンプソンサンプリング型アルゴリズムを開発した。
我々はまた、ガウシアンとベルヌーイの盗賊に対する包括的後悔の分析も提供する。
我々のアルゴリズムは、全てのリスク許容度に対して既存のLCBベースのアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-02-01T15:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。