論文の概要: Relaxed Triangle Inequality for Kullback-Leibler Divergence Between Multivariate Gaussian Distributions
- arxiv url: http://arxiv.org/abs/2602.02577v1
- Date: Sat, 31 Jan 2026 09:28:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:14.948538
- Title: Relaxed Triangle Inequality for Kullback-Leibler Divergence Between Multivariate Gaussian Distributions
- Title(参考訳): 多変量ガウス分布間のKulback-Leibler分散に対する緩和三角不等式
- Authors: Shiji Xiao, Yufeng Zhang, Chubo Liu, Yan Ding, Keqin Li, Kenli Li,
- Abstract要約: Kullback-Leibler (KL) の発散は適切な計量ではなく、三角形の不等式を満たすものではない。
KL(mathcalN1), MathcalN_3)$の上限と、上限が達成可能な条件を与える。
- 参考スコア(独自算出の注目度): 40.868754235067804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Kullback-Leibler (KL) divergence is not a proper distance metric and does not satisfy the triangle inequality, posing theoretical challenges in certain practical applications. Existing work has demonstrated that KL divergence between multivariate Gaussian distributions follows a relaxed triangle inequality. Given any three multivariate Gaussian distributions $\mathcal{N}_1, \mathcal{N}_2$, and $\mathcal{N}_3$, if $KL(\mathcal{N}_1, \mathcal{N}_2)\leq ε_1$ and $KL(\mathcal{N}_2, \mathcal{N}_3)\leq ε_2$, then $KL(\mathcal{N}_1, \mathcal{N}_3)< 3ε_1+3ε_2+2\sqrt{ε_1ε_2}+o(ε_1)+o(ε_2)$. However, the supremum of $KL(\mathcal{N}_1, \mathcal{N}_3)$ is still unknown. In this paper, we investigate the relaxed triangle inequality for the KL divergence between multivariate Gaussian distributions and give the supremum of $KL(\mathcal{N}_1, \mathcal{N}_3)$ as well as the conditions when the supremum can be attained. When $ε_1$ and $ε_2$ are small, the supremum is $ε_1+ε_2+\sqrt{ε_1ε_2}+o(ε_1)+o(ε_2)$. Finally, we demonstrate several applications of our results in out-of-distribution detection with flow-based generative models and safe reinforcement learning.
- Abstract(参考訳): Kullback-Leibler (KL) の発散は適切な距離測度ではなく、三角形の不等式を満足せず、特定の応用において理論的課題を提起する。
既存の研究は、多変量ガウス分布間のKL分散が緩和三角形の不等式に従うことを示した。
任意の多変数ガウス分布 $\mathcal{N}_1, \mathcal{N}_2$, & $\mathcal{N}_3$, if $KL(\mathcal{N}_1, \mathcal{N}_2)\leq ε_1$ and $KL(\mathcal{N}_2, \mathcal{N}_3)\leq ε_2$, then $KL(\mathcal{N}_1, \mathcal{N}_3)< 3ε_1+3ε_2+2\sqrt{ε_1ε_2+o(ε_1)+o(ε_2)$ が与えられる。
しかし、$KL(\mathcal{N}_1, \mathcal{N}_3)$の上限はまだ不明である。
本稿では,多変量ガウス分布間のKL分散に対する緩和三角形の不等式について検討し,KL(\mathcal{N}_1, \mathcal{N}_3)$の上限を与えるとともに,上限が得られる条件を与える。
ε_1$と$ε_2$が小さいとき、上限は$ε_1+ε_2+\sqrt{ε_1ε_2}+o(ε_1)+o(ε_2)$である。
最後に,フローベース生成モデルを用いたアウト・オブ・ディストリビューション検出と安全な強化学習の応用について述べる。
関連論文リスト
- Nearly Optimal Robust Covariance and Scatter Matrix Estimation Beyond Gaussians [2.311583680973075]
楕円分布の共分散/散乱行列の計算効率の良いロバスト推定問題について検討する。
ガウスのケースを超えて拡張される、計算可能で、ほぼ最適な、ほぼ最適な共分散推定器を初めて得る。
論文 参考訳(メタデータ) (2025-02-10T15:31:57Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - On the Approximation of Cooperative Heterogeneous Multi-Agent
Reinforcement Learning (MARL) using Mean Field Control (MFC) [33.833747074900856]
平均場制御(MFC)は協調型マルチエージェント強化学習問題の次元性の呪いを軽減する効果的な方法である。
この作業では、$N_mathrmpop$ヘテロジニアスエージェントのコレクションを検討し、それを$K$クラスに分離することができる。
論文 参考訳(メタデータ) (2021-09-09T03:52:49Z) - Universal Regular Conditional Distributions via Probability
Measure-Valued Deep Neural Models [3.8073142980733]
提案したフレームワークを用いて構築されたモデルはすべて、$C(mathcalX,mathcalP_1(mathcalY))$で密集している。
提案モデルはまた、ほとんどのランダム化された機械学習モデルに存在するアレラトリック不確かさを汎用的に表現できることも示している。
論文 参考訳(メタデータ) (2021-05-17T11:34:09Z) - Stochastic behavior of outcome of Schur-Weyl duality measurement [45.41082277680607]
我々は、$n$ qubits上のシュル=ワイル双対性に基づく分解によって定義される測定に焦点をあてる。
我々は、$n$が無限大に進むとき、中心極限の一種を含む様々な種類の分布を導出する。
論文 参考訳(メタデータ) (2021-04-26T15:03:08Z) - On the Properties of Kullback-Leibler Divergence Between Gaussians [22.274623046922628]
Kullback-Leibler (KL) の発散は確率分布間の最も重要な発散測度の一つである。
本稿では,ガウシアン間のKL分散特性について検討する。
論文 参考訳(メタデータ) (2021-02-10T15:21:53Z) - Near-Optimal SQ Lower Bounds for Agnostically Learning Halfspaces and
ReLUs under Gaussian Marginals [49.60752558064027]
ガウス境界の下では、半空間とReLUを不可知的に学習する基本的な問題について検討する。
我々の下限は、これらのタスクの現在の上限が本質的に最良のものであるという強い証拠を与える。
論文 参考訳(メタデータ) (2020-06-29T17:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。