論文の概要: Sharp Inequalities between Total Variation and Hellinger Distances for Gaussian Mixtures
- arxiv url: http://arxiv.org/abs/2602.03202v1
- Date: Tue, 03 Feb 2026 07:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.30397
- Title: Sharp Inequalities between Total Variation and Hellinger Distances for Gaussian Mixtures
- Title(参考訳): ガウス混合系の総変分とヘリンジャー距離のシャープ不等式
- Authors: Joonhyuk Jung, Chao Gao,
- Abstract要約: 本研究では,2つのガウス位置混合系の総変動(TV)とヘリンジャー距離の関係について検討した。
以上の結果から,Jia et al. (2023) で提起された開放的な問題を解き,全変量でガウス混合を学習するエントロピックな特徴付けが導かれる。
- 参考スコア(独自算出の注目度): 28.526133854008478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the relation between the total variation (TV) and Hellinger distances between two Gaussian location mixtures. Our first result establishes a general upper bound: for any two mixing distributions supported on a compact set, the Hellinger distance between the two mixtures is controlled by the TV distance raised to a power $1-o(1)$, where the $o(1)$ term is of order $1/\log\log(1/\mathrm{TV})$. We also construct two sequences of mixing distributions that demonstrate the sharpness of this bound. Taken together, our results resolve an open problem raised in Jia et al. (2023) and thus lead to an entropic characterization of learning Gaussian mixtures in total variation. Our inequality also yields optimal robust estimation of Gaussian mixtures in Hellinger distance, which has a direct implication for bounding the minimax regret of empirical Bayes under Huber contamination.
- Abstract(参考訳): 本研究では,2つのガウス位置混合系の総変動(TV)とヘリンジャー距離の関係について検討した。
コンパクトな集合上で支持される任意の2つの混合分布に対して、この2つの混合のヘリンジャー距離は、$o(1)$ の項が 1/\log\log(1/\mathrm{TV})$ の次数であるとき、パワー 1-o(1)$ のテレビ距離によって制御される。
また、この境界のシャープさを示す混合分布の2つの列も構成する。
この結果から,Jia et al (2023) で発生した開放的な問題を解き,全変量ガウス混合学習のエントロピックな特徴を導出した。
我々の不等式はまた、ヘリンジャー距離におけるガウス混合物の最適ロバストな評価をもたらし、これはハマー汚染下での経験的ベイズのミニマックス後悔を束縛する直接的な意味を持つ。
関連論文リスト
- Learning general Gaussian mixtures with efficient score matching [16.06356123715737]
我々は、$d$次元で$k$ガウシアンの混合を学習する問題を研究する。
我々は、下層の混合成分について分離を前提としない。
我々は、ターゲット混合物から$dmathrmpoly(k/varepsilon)$サンプルを抽出し、サンプル-ポリノミカル時間で実行し、サンプリング器を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-29T17:30:36Z) - Mixtures of Gaussians are Privately Learnable with a Polynomial Number of Samples [9.649879910148854]
差分プライバシー(DP)制約下におけるガウシアン混合量の推定問題について検討する。
主な結果は、$textpoly(k,d,1/alpha,1/varepsilon,log (1/delta))$サンプルが$k$ Gaussians in $mathbbRd$から$alpha$までを推定するのに十分であることです。
これは GMM の構造的仮定を一切含まない問題に対する最初の有限標本複雑性上界である。
論文 参考訳(メタデータ) (2023-09-07T17:02:32Z) - The Parametric Stability of Well-separated Spherical Gaussian Mixtures [7.238973585403367]
分布空間の小さな摂動下で球状ガウス混合モデル(sGMM)のパラメータ安定性を定量化する。
既定義モデルクラスにおける球面ガウス$P$(sGMM)の混合に対して、全変動距離におけるこのモデルクラスの他のすべてのsGMMは、Pに小さいパラメータ距離を持つことを示す最初の明示的境界を導出する。
論文 参考訳(メタデータ) (2023-02-01T04:52:13Z) - Theoretical Error Analysis of Entropy Approximation for Gaussian Mixtures [0.6990493129893112]
本稿では, 混合係数による一様ガウス分布のエントロピーの和として表される近似エントロピーについて検討する。
理論的には、真と近似エントロピーの間の近似誤差を解析し、この近似が効果的に機能するかどうかを明らかにする。
本結果は,ニューラルネットワークなどの高次元問題に対して,この近似が有効であることを示す。
論文 参考訳(メタデータ) (2022-02-26T04:49:01Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - Lower Bounds on the Total Variation Distance Between Mixtures of Two
Gaussians [45.392805695921666]
混合系の全変動距離と特性関数の接続を利用する。
2成分ガウス混合系の対間の全変動距離の新しい下界を導出する。
論文 参考訳(メタデータ) (2021-09-02T16:32:16Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Robustly Learning Mixtures of $k$ Arbitrary Gaussians [47.40835932474677]
任意の固定された$k$に対して$k$任意のガウスの混合を$mathbbRd$で頑健に推定する問題に対して、一定数の任意の汚職が存在する場合の時間アルゴリズムを与える。
本研究の主なツールは,2乗法に依拠する効率的な分節クラスタリングアルゴリズムと,Frobeniusノルムおよび低ランク項の誤りを許容する新しいテンソル分解アルゴリズムである。
論文 参考訳(メタデータ) (2020-12-03T17:54:03Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。