論文の概要: Likelihood Ratio Tests by Kernel Gaussian Embedding
- arxiv url: http://arxiv.org/abs/2508.07982v1
- Date: Mon, 11 Aug 2025 13:41:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.121329
- Title: Likelihood Ratio Tests by Kernel Gaussian Embedding
- Title(参考訳): Kernel Gaussian Embedding によるいいね!
- Authors: Leonardo V. Santoro, Victor M. Panaretos,
- Abstract要約: カーネル平均値とカーネル共分散埋め込みを組み合わせた新しいカーネルベース非パラメトリック2サンプルテストを提案する。
本試験は, カーネルのRKHS上の特異なガウス測度に対して, それらの埋め込みが異なる確率測度をどうマッピングするかを示す最近の結果に基づく。
我々は、ガウス埋め込み間の相対エントロピー、すなわち確率比に基づくテスト統計を構築した。
可能性比は、2つのガウスの等式対特異点を検出するために特別に調整され、0/infty$"法則を満たす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel kernel-based nonparametric two-sample test, employing the combined use of kernel mean and kernel covariance embedding. Our test builds on recent results showing how such combined embeddings map distinct probability measures to mutually singular Gaussian measures on the kernel's RKHS. Leveraging this result, we construct a test statistic based on the relative entropy between the Gaussian embeddings, i.e.\ the likelihood ratio. The likelihood ratio is specifically tailored to detect equality versus singularity of two Gaussians, and satisfies a ``$0/\infty$" law, in that it vanishes under the null and diverges under the alternative. To implement the test in finite samples, we introduce a regularised version, calibrated by way of permutation. We prove consistency, establish uniform power guarantees under mild conditions, and discuss how our framework unifies and extends prior approaches based on spectrally regularized MMD. Empirical results on synthetic and real data demonstrate remarkable gains in power compared to state-of-the-art methods, particularly in high-dimensional and weak-signal regimes.
- Abstract(参考訳): カーネル平均値とカーネル共分散埋め込みを組み合わせた新しいカーネルベース非パラメトリック2サンプルテストを提案する。
本試験は, カーネルのRKHS上の特異なガウス測度に対して, それらの埋め込みが異なる確率測度をどうマッピングするかを示す最近の結果に基づく。
この結果を活用することで、ガウス埋め込みの間の相対エントロピー、すなわち確率比に基づくテスト統計を構築します。
確率比は、2つのガウスの等式対特異点を検出するために特別に調整され、代わりにnullの下で消滅し、その代替の下で分岐する ``$0/\infty$" 法則を満たす。
有限サンプルでテストを実装するために, 変分法で校正した正規化版を導入する。
我々は、整合性を証明し、穏やかな条件下で均一な電力保証を確立するとともに、我々のフレームワークがスペクトル正規化MDDに基づいて先行アプローチをどのように統合し拡張するかについて議論する。
合成および実データに関する実証的な結果は、特に高次元および弱信号状態において、最先端の手法と比較して、パワーの顕著な向上を示す。
関連論文リスト
- Boosting the Power of Kernel Two-Sample Tests [4.07125466598411]
最大平均誤差(MMD)に基づくカーネル2サンプルテストは、一般的な距離空間上の2つの分布の違いを検出する最も一般的な方法の1つである。
マハラノビス距離を用いて,複数のカーネル上でMDD推定値を組み合わせることで,カーネルテストのパワーを高める手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - How Good are Low-Rank Approximations in Gaussian Process Regression? [28.392890577684657]
2つの共通低ランクカーネル近似による近似ガウス過程(GP)回帰の保証を提供する。
理論境界の有効性を評価するため,シミュレーションデータと標準ベンチマークの両方について実験を行った。
論文 参考訳(メタデータ) (2021-12-13T04:04:08Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - How Good are Low-Rank Approximations in Gaussian Process Regression? [24.09582049403961]
2つの共通低ランクカーネル近似による近似ガウス過程(GP)回帰の保証を提供する。
理論境界の有効性を評価するため,シミュレーションデータと標準ベンチマークの両方について実験を行った。
論文 参考訳(メタデータ) (2020-04-03T14:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。