論文の概要: Bregman Deviations of Generic Exponential Families
- arxiv url: http://arxiv.org/abs/2201.07306v1
- Date: Tue, 18 Jan 2022 20:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 01:33:31.442837
- Title: Bregman Deviations of Generic Exponential Families
- Title(参考訳): 遺伝的指数家族のブレグマン偏差
- Authors: Sayak Ray Chowdhury, Patrick Saux, Odalric-Ambrym Maillard, Aditya
Gopalan
- Abstract要約: 本研究では,ラプラス法(Laplace method)と呼ばれる混合手法の手法を再検討し,指数関数族における濃度現象について検討する。
得られた信頼度を時間一様濃度に対する最先端の代替品と数値的に比較し,本手法が競争結果をもたらすことを示す。
- 参考スコア(独自算出の注目度): 28.592975143984006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit the method of mixture technique, also known as the Laplace method,
to study the concentration phenomenon in generic exponential families.
Combining the properties of Bregman divergence associated with log-partition
function of the family with the method of mixtures for super-martingales, we
establish a generic bound controlling the Bregman divergence between the
parameter of the family and a finite sample estimate of the parameter. Our
bound is time-uniform and makes appear a quantity extending the classical
\textit{information gain} to exponential families, which we call the
\textit{Bregman information gain}. For the practitioner, we instantiate this
novel bound to several classical families, e.g., Gaussian, Bernoulli,
Exponential and Chi-square yielding explicit forms of the confidence sets and
the Bregman information gain. We further numerically compare the resulting
confidence bounds to state-of-the-art alternatives for time-uniform
concentration and show that this novel method yields competitive results.
Finally, we highlight how our results can be applied in a linear contextual
multi-armed bandit problem.
- Abstract(参考訳): ラプラス法(Laplace method)とも呼ばれる混合手法の手法を再検討し、一般指数族における濃度現象について検討する。
家系の対数分割関数に付随するブレグマン分岐の性質とスーパーマーチンガーの混合法を組み合わせることで、家族のパラメータとパラメータの有限サンプル推定値との間のブレグマン分岐を制御するジェネリック境界を確立する。
私たちの境界は時間一様であり、古典的な \textit{information gain} を指数族に拡張する量として現れ、それを \textit{Bregman information gain} と呼ぶ。
実践者のために、我々はこの小説をガウシアン、ベルヌーイ、指数的およびチ二乗といったいくつかの古典群に束縛し、信頼集合の明示的な形式とブレグマン情報を得る。
さらに,結果の信頼度境界を時間一様濃度に対する最先端の代替案と比較し,この新手法が競合結果をもたらすことを示す。
最後に, 線形文脈の多腕バンディット問題に対して, 結果がどのように適用できるかを強調する。
関連論文リスト
- Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Clustering above Exponential Families with Tempered Exponential Measures [28.532545355403123]
指数関数族とのリンクにより、$k$-meansクラスタリングは、幅広いデータ生成分布に一般化できるようになった。
指数族を超えて働くための枠組みは、公理化で彫られた人口最小化の頑丈さが欠如しているなど、道路ブロックを持ち上げるために重要である。
論文 参考訳(メタデータ) (2022-11-04T21:58:40Z) - Finite-Time Regret of Thompson Sampling Algorithms for Exponential
Family Multi-Armed Bandits [88.21288104408556]
本研究では,指数関数族バンドイットに対するトンプソンサンプリング (TS) アルゴリズムの遺残について検討する。
最適な腕の過小評価を避けるために,新しいサンプリング分布を用いたトンプソンサンプリング(Expulli)を提案する。
論文 参考訳(メタデータ) (2022-06-07T18:08:21Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Kernel Deformed Exponential Families for Sparse Continuous Attention [76.61129971916702]
カーネル指数および変形指数族の存在結果を示す。
実験により、カーネル変形指数族はデータ領域の複数のコンパクト領域に参加することができることが示された。
論文 参考訳(メタデータ) (2021-11-01T19:21:22Z) - Fast approximations of the Jeffreys divergence between univariate
Gaussian mixture models via exponential polynomial densities [16.069404547401373]
ジェフリーズ・ダイバージェンス(英: Jeffreys divergence)は、機械学習、信号処理、情報科学でよく用いられる統計学のクルバック・リブラーの有名な対称性である。
任意の成分数の2つのGMM間のジェフリーズ偏差を近似するために, 単純かつ高速な関数を提案する。
論文 参考訳(メタデータ) (2021-07-13T07:58:01Z) - Likelihood Ratio Exponential Families [43.98796887171374]
幾何学的混合経路を指数関数分布の族として熱力学的変分対象(tvo)を分析する。
これらの可能性比指数ファミリーを拡張し、レート歪み(RD)最適化、情報ボトルネック(IB)方法、および最近のレート歪み分類アプローチの解決策を含む。
論文 参考訳(メタデータ) (2020-12-31T07:13:58Z) - Estimating means of bounded random variables by betting [39.98103047898974]
本稿では、境界観測から未知の平均を推定する古典的な問題に対して、信頼区間(CI)と時間一様信頼シーケンス(CS)を導出する。
本稿では,Chernoff法を一般化し改良したものと考えられる濃度境界を導出する一般手法を提案する。
我々は、これらのアイデアを、置換せずにサンプリングに拡張する方法を示し、また、非常に研究された問題である。
論文 参考訳(メタデータ) (2020-10-19T17:22:03Z) - Optimal Bounds between $f$-Divergences and Integral Probability Metrics [8.401473551081748]
確率分布の類似性を定量化するために、$f$-divergencesとIntegral Probability Metricsが広く使われている。
両家系の関係を凸双対性の観点から体系的に研究する。
我々は、Hoeffdingの補題のような統一的な方法でよく知られた結果を回復しながら、新しい境界を得る。
論文 参考訳(メタデータ) (2020-06-10T17:39:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。