論文の概要: A Method For Bounding Tail Probabilities
- arxiv url: http://arxiv.org/abs/2402.13662v1
- Date: Wed, 21 Feb 2024 09:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 16:10:14.931764
- Title: A Method For Bounding Tail Probabilities
- Title(参考訳): テール確率のバウンディング法
- Authors: Nikola Zlatanov
- Abstract要約: 本稿では,連続確率変数(RV)の左右テール確率を上下界に限定する手法を提案する。
我々は、新しい境界とマルコフの不等式とチェルノフの境界との間の接続を確立する。
ここでは、選択した$g_X(x)$に対して、これらの境界の厳密さを示す数値的な例を示す。
- 参考スコア(独自算出の注目度): 4.24243593213882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for upper and lower bounding the right and the left tail
probabilities of continuous random variables (RVs). For the right tail
probability of RV $X$ with probability density function $f_X(x)$, this method
requires first setting a continuous, positive, and strictly decreasing function
$g_X(x)$ such that $-f_X(x)/g'_X(x)$ is a decreasing and increasing function,
$\forall x>x_0$, which results in upper and lower bounds, respectively, given
in the form $-f_X(x) g_X(x)/g'_X(x)$, $\forall x>x_0$, where $x_0$ is some
point. Similarly, for the upper and lower bounds on the left tail probability
of $X$, this method requires first setting a continuous, positive, and strictly
increasing function $g_X(x)$ such that $f_X(x)/g'_X(x)$ is an increasing and
decreasing function, $\forall x<x_0$, which results in upper and lower bounds,
respectively, given in the form $f_X(x) g_X(x)/g'_X(x)$, $\forall x<x_0$. We
provide some examples of good candidates for the function $g_X(x)$. We also
establish connections between the new bounds and Markov's inequality and
Chernoff's bound. In addition, we provide an iterative method for obtaining
ever tighter lower and upper bounds, under certain conditions. Finally, we
provide numerical examples, where we show the tightness of these bounds, for
some chosen $g_X(x)$.
- Abstract(参考訳): 本稿では,連続確率変数(rvs)の右尾と左尾の確率を上下に限定する手法を提案する。
確率密度関数 $f_X(x)$ を持つ RV $X$ の右テール確率 RV $X$ に対して、この方法はまず連続的かつ正で厳密に減少する関数 $g_X(x)$ を$-f_X(x)/g'_X(x)$ が減少および増大する関数であるような関数 $g_X(x)$ と、それぞれ上界と下界を生じる $\forall x>x_0$ を $-f_X(x) g_X(x)/g'_X(x)$, $\forall x>x_0$ という形で与えられる。
同様に、$X$ の左尾の確率の上限と下限について、この方法はまず連続的で正で厳密に増大する関数 $g_X(x)$ を$f_X(x)/g'_X(x)$ が増加・減少する関数 $\forall x<x_0$ で、それぞれ上限と下限が $f_X(x) g_X(x)/g'_X(x)$, $\forall x<x_0$ となるように設定する必要がある。
関数 $g_X(x)$ のよい候補をいくつか提示する。
我々はまた、新しい境界とマルコフの不等式とチャーノフの束の間の関係を確立する。
また,一定の条件下で,より強固な下界と上界を得るための反復的手法を提案する。
最後に、選択した$g_X(x)$に対して、これらの境界の厳密性を示す数値的な例を示す。
関連論文リスト
- A simple and improved algorithm for noisy, convex, zeroth-order optimisation [59.51990161522328]
我々は、$f(hat x)$ ができるだけ小さいような点 $hat xin barmathcal X$ を返すアルゴリズムを構築している。
この方法は、$f(hat x) - min_xin barmathcal X f(x)$ が、多対数項まで$d2/sqrtn$ より小さい順序であることを証明する。
論文 参考訳(メタデータ) (2024-06-26T18:19:10Z) - Efficient Continual Finite-Sum Minimization [52.5238287567572]
連続有限サム最小化(continuous finite-sum minimization)と呼ばれる有限サム最小化の鍵となるツイストを提案する。
我々のアプローチは$mathcalO(n/epsilon)$ FOs that $mathrmStochasticGradientDescent$で大幅に改善されます。
また、$mathcalOleft(n/epsilonalpharight)$ complexity gradient for $alpha 1/4$という自然な一階法は存在しないことを証明し、この方法の第一階法がほぼ密であることを示す。
論文 参考訳(メタデータ) (2024-06-07T08:26:31Z) - An Optimal Algorithm for Strongly Convex Min-min Optimization [79.11017157526815]
既存の最適な一階法には$mathcalO(sqrtmaxkappa_x,kappa_y log 1/epsilon)$nabla_x f(x,y)$と$nabla_y f(x,y)$の両方の計算が必要である。
我々は$mathcalO(sqrtkappa_x log 1/epsilon)$nabla_x f(x,
論文 参考訳(メタデータ) (2022-12-29T19:26:12Z) - Unique Games hardness of Quantum Max-Cut, and a conjectured
vector-valued Borell's inequality [6.621324975749854]
関数 $f:mathbbRn の -1, 1$ への雑音安定性は $f(boldsymbolx) cdot f(boldsymboly)$ の期待値であることを示す。
我々は $langle f(boldsymbolx), f(boldsymboly)rangle$ の期待値は、関数 $f(x) = x_leq k / Vert x_leq k / によって最小化されると予想する。
論文 参考訳(メタデータ) (2021-11-01T20:45:42Z) - On the Self-Penalization Phenomenon in Feature Selection [69.16452769334367]
カーネル群に基づく暗黙の空間性誘導機構について述べる。
アプリケーションとしては、この疎結合誘導機構を使用して、特徴選択に一貫性のあるアルゴリズムを構築します。
論文 参考訳(メタデータ) (2021-10-12T09:36:41Z) - Nonconvex-Nonconcave Min-Max Optimization with a Small Maximization
Domain [11.562923882714093]
Y f(x,y) における max_y の $min_x 形式の最適化問題における近似一階定常点の探索問題について検討する。
我々のアプローチは、関数 $f(x,cdot)$ を $k 次テイラー近似($y$ で)に置き換え、ほぼ定常点を $Y$ で見つけることに依存する。
論文 参考訳(メタデータ) (2021-10-08T07:46:18Z) - Faster Rates of Differentially Private Stochastic Convex Optimization [7.93728520583825]
人口リスク関数がTysbakovノイズ条件(TNC)をパラメータ$theta>1$で満たす場合について検討した。
第2部では,人口リスク関数が強く凸する特殊な事例に着目した。
論文 参考訳(メタデータ) (2021-07-31T22:23:39Z) - Convergence Rate of the (1+1)-Evolution Strategy with Success-Based
Step-Size Adaptation on Convex Quadratic Functions [20.666734673282498]
1+1)-進化戦略(ES)と成功に基づくステップサイズ適応を一般凸二次関数で解析する。
1+1)-ES の収束速度は、一般凸二次函数上で明示的に厳密に導かれる。
論文 参考訳(メタデータ) (2021-03-02T09:03:44Z) - Optimal Regret Algorithm for Pseudo-1d Bandit Convex Optimization [51.23789922123412]
我々は,バンディットフィードバックを用いてオンライン学習を学習する。
learnerは、コスト/リワード関数が"pseudo-1d"構造を許可するゼロ次オラクルのみにアクセスできる。
我々は、$T$がラウンドの数である任意のアルゴリズムの後悔のために$min(sqrtdT、T3/4)$の下限を示しています。
ランダム化オンライングラデーション下降とカーネル化指数重み法を組み合わせた新しいアルゴリズムsbcalgを提案し,疑似-1d構造を効果的に活用する。
論文 参考訳(メタデータ) (2021-02-15T08:16:51Z) - Near-Optimal SQ Lower Bounds for Agnostically Learning Halfspaces and
ReLUs under Gaussian Marginals [49.60752558064027]
ガウス境界の下では、半空間とReLUを不可知的に学習する基本的な問題について検討する。
我々の下限は、これらのタスクの現在の上限が本質的に最良のものであるという強い証拠を与える。
論文 参考訳(メタデータ) (2020-06-29T17:10:10Z) - Backtracking Gradient Descent allowing unbounded learning rates [0.0]
ユークリッド空間上の非制約最適化では、勾配 Descent process (GD) $x_n+1=x_n-delta _n nabla f(x_n)$ の収束を証明するために、通常、学習レート $delta _n$'s が有界であることが要求される。
本稿では,学習率$delta _n$を非有界にする。
この$h$の成長率は、シーケンスの$x_n$の収束を望んでいれば最善であることが示される。
論文 参考訳(メタデータ) (2020-01-07T12:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。