論文の概要: Sharper Perturbed-Kullback-Leibler Exponential Tail Bounds for Beta and Dirichlet Distributions
- arxiv url: http://arxiv.org/abs/2508.07991v1
- Date: Mon, 11 Aug 2025 13:53:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.125343
- Title: Sharper Perturbed-Kullback-Leibler Exponential Tail Bounds for Beta and Dirichlet Distributions
- Title(参考訳): ベータおよびディリクレ分布に対するシャーパー摂動-カルバック-リーブラー指数コイル境界
- Authors: Pierre Perrault,
- Abstract要約: より大きな摂動が選択できることを示し、それによって境界を締め付ける。
次に、この結果をベータ分布からディリクレ分布およびディリクレ過程(DP)へ拡張する。
- 参考スコア(独自算出の注目度): 9.427635404752936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an improved exponential tail bound for Beta distributions, refining a result in [15]. This improvement is achieved by interpreting their bound as a regular Kullback-Leibler (KL) divergence one, while introducing a specific perturbation $\eta$ that shifts the mean of the Beta distribution closer to zero within the KL bound. Our contribution is to show that a larger perturbation can be chosen, thereby tightening the bound. We then extend this result from the Beta distribution to Dirichlet distributions and Dirichlet processes (DPs).
- Abstract(参考訳): 本稿では,ベータ分布の指数的テールを改良し,[15]で結果を精査する。
この改善は、通常のKL(Kullback-Leibler)分岐として境界を解釈し、KL境界内のベータ分布の平均を0に近づける特定の摂動(英語版)$\eta$を導入することで達成される。
我々の貢献は、より大きな摂動が選択できることを示し、それによって境界を締め付けることである。
次に、この結果をベータ分布からディリクレ分布およびディリクレ過程(DP)へと拡張する。
関連論文リスト
- A Connection Between Learning to Reject and Bhattacharyya Divergences [57.942664964198286]
インプットとラベルの両面で共同理想分布を学習することを検討する。
我々は、拒絶と統計的相違の閾値付けを関連づける。
一般に、バタチャリアの発散による拒絶は、Chowのルールよりも攻撃的でないことが分かる。
論文 参考訳(メタデータ) (2025-05-08T14:18:42Z) - Statistical and Geometrical properties of regularized Kernel Kullback-Leibler divergence [7.273481485032721]
Bach [2022] が導入したカーネル共分散作用素によるクルバック・リーブラ発散の統計的および幾何学的性質について検討する。
密度比を含む古典的なクルバック・リーブラー(KL)の発散とは異なり、KKLは再現可能なカーネルヒルベルト空間(RKHS)における共分散作用素(埋め込み)による確率分布を比較する。
この斬新な発散は、確率分布と最大平均誤差のようなカーネル埋め込みメトリクスの間の標準のクルバック・リーバーと平行だが異なる側面を共有する。
論文 参考訳(メタデータ) (2024-08-29T14:01:30Z) - Beta Diffusion [69.61105403426778]
本研究では,デマスキングとデノナイズを統合し,境界範囲内でデータを生成する新しい生成モデルであるβ拡散を導入する。
ベータ拡散は、KL分散の凸性から導かれるKL分散上界(KLUB)に乗じて最適化される。
合成データと自然画像の両方の実験結果から, 領域境界データの生成モデルにおけるベータ拡散のユニークな機能を示す。
論文 参考訳(メタデータ) (2023-09-14T17:14:26Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - KALE Flow: A Relaxed KL Gradient Flow for Probabilities with Disjoint
Support [27.165565512841656]
移動音源と固定目標分布との間のクルバック・リーブラー分岐に対する緩和近似の勾配流について検討した。
この近似は KALE (KL 近似下界推定器) と呼ばれ、関数の制限クラス上で KL を定義するフェンシェル双対問題の正規化版を解く。
論文 参考訳(メタデータ) (2021-06-16T16:37:43Z) - On the Robustness to Misspecification of $\alpha$-Posteriors and Their
Variational Approximations [12.52149409594807]
$alpha$-posteriorとその変分近似は、確率を下げ、変分近似エラーを導入することで標準後部推論を歪ませる。
このような歪みが適切に調整されると、潜在的なパラメトリックモデルの誤仕様がある場合、Kulback-Leibler (KL) の真の分散が、おそらく実現不可能な、後方分布が減少することを示した。
論文 参考訳(メタデータ) (2021-04-16T19:11:53Z) - Kullback-Leibler divergence between quantum distributions, and its
upper-bound [1.2183405753834562]
この研究は、量子分布(QD)と呼ばれる確率分布のクラスに対して、KL(Kullback-Leibler)の発散が到達できる上限値を示す。
ここでは、エントロピーの発散に対する上界の取り出しは、比較分布が同じ量子値上の量子分布であるという条件の下で可能であることが示される。
論文 参考訳(メタデータ) (2020-08-13T14:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。