論文の概要: Tight Concentrations and Confidence Sequences from the Regret of
Universal Portfolio
- arxiv url: http://arxiv.org/abs/2110.14099v1
- Date: Wed, 27 Oct 2021 00:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:53:59.864914
- Title: Tight Concentrations and Confidence Sequences from the Regret of
Universal Portfolio
- Title(参考訳): ユニバーサルポートフォリオの後悔からの厳密な集中と信頼の順序
- Authors: Francesco Orabona and Kwang-Sung Jun
- Abstract要約: Jun と Orabona [COLT'19] はオンライン賭けアルゴリズムの後悔の保証を時間的一様濃度の不等式に簡単に変換する方法を示した。
ミニマックスベッティングアルゴリズムの後悔は、新しい暗黙的な経験的時間一様集中を引き起こすことを示す。
- 参考スコア(独自算出の注目度): 30.750408480772027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A classic problem in statistics is the estimation of the expectation of
random variables from samples. This gives rise to the tightly connected
problems of deriving concentration inequalities and confidence sequences, that
is confidence intervals that hold uniformly over time. Jun and Orabona
[COLT'19] have shown how to easily convert the regret guarantee of an online
betting algorithm into a time-uniform concentration inequality. Here, we show
that we can go even further: We show that the regret of a minimax betting
algorithm gives rise to a new implicit empirical time-uniform concentration. In
particular, we use a new data-dependent regret guarantee of the universal
portfolio algorithm. We then show how to invert the new concentration in two
different ways: in an exact way with a numerical algorithm and symbolically in
an approximate way. Finally, we show empirically that our algorithms have
state-of-the-art performance in terms of the width of the confidence sequences
up to a moderately large amount of samples. In particular, our numerically
obtained confidence sequences are never vacuous, even with a single sample.
- Abstract(参考訳): 統計学における古典的な問題は、サンプルからランダム変数の予想を推定することである。
これにより、濃度不等式と信頼シーケンス、すなわち時間とともに均一に保持される信頼区間を導出する密接な結合問題が発生する。
Jun と Orabona [COLT'19] はオンライン賭けアルゴリズムの後悔の保証を時間的一様濃度の不等式に簡単に変換する方法を示した。
ミニマックスベッティングアルゴリズムの後悔は、新しい暗黙的な経験的時間一様集中をもたらすことを示している。
特に,ユニバーサルポートフォリオアルゴリズムの新たなデータ依存型後悔保証を用いる。
次に,新しい濃度を2つの異なる方法で反転させる方法を示す。
最後に,我々のアルゴリズムは,信頼度列の幅から適度に大量のサンプルまで,最先端の性能を持つことを示す。
特に、数値的に得られた信頼シーケンスは、単一のサンプルであっても決して空でない。
関連論文リスト
- Simultaneous Inference for Local Structural Parameters with Random Forests [19.014535120129338]
我々は条件モーメント方程式の解に対する同時信頼区間を構築する。
我々は高次元U.S.の濃度と正規近似に関する新しい順序抽出結果を得た。
副産物として、高次元U.S.の濃度と正規近似に関するいくつかの新しい順序抽出結果を得る。
論文 参考訳(メタデータ) (2024-05-13T15:46:11Z) - An Improved Algorithm for Learning Drifting Discrete Distributions [2.2191203337341525]
分散ドリフト下で離散分布を学習するための新しい適応アルゴリズムを提案する。
時間とともに変化する離散分布から独立したサンプルの列を観察し、その目標は現在の分布を推定することである。
より多くのサンプルを使用するには、過去にさらにサンプルに頼らなければならず、分布の変化によって生じるバイアスによりドリフトエラーが発生する。
ドリフトに関する事前の知識を必要とせずにこのトレードオフを解くことができる新しい適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-08T16:54:27Z) - Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Huber-Robust Confidence Sequences [37.16361789841549]
信頼シーケンスは、逐次追跡可能な信頼区間であり、任意のデータ依存の停止時間で有効である。
非逐次的設定で達成された最適幅を達成するために,結果の信頼性シーケンスが得られたことを示す。
信頼シーケンスは、A/B/nテストやバンドイットで使用される一般的なツールであるため、これらの結果は、外れ値や敵の腐敗に対して堅牢なシーケンシャルな実験への扉を開く。
論文 参考訳(メタデータ) (2023-01-23T17:29:26Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - Estimating means of bounded random variables by betting [39.98103047898974]
本稿では、境界観測から未知の平均を推定する古典的な問題に対して、信頼区間(CI)と時間一様信頼シーケンス(CS)を導出する。
本稿では,Chernoff法を一般化し改良したものと考えられる濃度境界を導出する一般手法を提案する。
我々は、これらのアイデアを、置換せずにサンプリングに拡張する方法を示し、また、非常に研究された問題である。
論文 参考訳(メタデータ) (2020-10-19T17:22:03Z) - Near-Optimal Confidence Sequences for Bounded Random Variables [5.901337162013615]
オンライン推論の根本的な問題は、成長する無限小サンプルサイズに対して均一に有効である信頼区間のシーケンスを提供することである。
我々は,ベンツクスの濃度値を利用して,有界確率変数のほぼ最適確率列を提供する。
得られた信頼性シーケンスは、合成カバレッジ問題と適応停止アルゴリズムへの応用の両方において好適であることが確認された。
論文 参考訳(メタデータ) (2020-06-09T02:50:01Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。