論文の概要: Kernel Quantile Embeddings and Associated Probability Metrics
- arxiv url: http://arxiv.org/abs/2505.20433v1
- Date: Mon, 26 May 2025 18:27:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.245259
- Title: Kernel Quantile Embeddings and Associated Probability Metrics
- Title(参考訳): カーネル量子埋め込みと関連する確率メトリクス
- Authors: Masha Naslidnyk, Siu Lun Chau, François-Xavier Briol, Krikamol Muandet,
- Abstract要約: カーネル量子埋め込み(KQE)の概念を導入する。
i) MMDよりも弱いカーネル条件下での確率測定値、(ii)スライスしたワッサーシュタイン距離のカーネル化形式を復元し、(iii) ほぼ直線的なコストで効率的に推定できる。
- 参考スコア(独自算出の注目度): 12.484632369259659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Embedding probability distributions into reproducing kernel Hilbert spaces (RKHS) has enabled powerful nonparametric methods such as the maximum mean discrepancy (MMD), a statistical distance with strong theoretical and computational properties. At its core, the MMD relies on kernel mean embeddings to represent distributions as mean functions in RKHS. However, it remains unclear if the mean function is the only meaningful RKHS representation. Inspired by generalised quantiles, we introduce the notion of kernel quantile embeddings (KQEs). We then use KQEs to construct a family of distances that: (i) are probability metrics under weaker kernel conditions than MMD; (ii) recover a kernelised form of the sliced Wasserstein distance; and (iii) can be efficiently estimated with near-linear cost. Through hypothesis testing, we show that these distances offer a competitive alternative to MMD and its fast approximations.
- Abstract(参考訳): 再現カーネルヒルベルト空間(RKHS)への確率分布の埋め込みは、理論的および計算的性質の強い統計的距離である最大平均誤差(MMD)のような強力な非パラメトリック手法を可能にした。
MMDの中核は、RKHSにおける平均関数として分布を表すためにカーネル平均埋め込みに依存している。
しかし、平均関数が唯一意味のあるRKHS表現であるかどうかは不明である。
一般化量子化に触発されて、カーネル量子化(KQE)の概念を導入する。
次に、KQEを使って距離の族を構築します。
i) MMDよりも弱いカーネル条件下での確率測定値である。
(二)スライスしたワッサーシュタイン距離の核形を復元し、
(iii) ほぼ直線的なコストで効率的に見積もることができる。
仮説テストにより、これらの距離はMDDとその高速近似の競合的な代替となることを示した。
関連論文リスト
- A Uniform Concentration Inequality for Kernel-Based Two-Sample Statistics [4.757470449749877]
これらの指標はカーネルベースの2サンプル統計学の一般的な枠組みの下で統一可能であることを示す。
本稿では、上記のカーネルベースの統計量に対して、新しい一様濃度不等式を確立する。
図示的応用として,これらの境界が距離共分散に基づく次元減少などの手順における誤差境界の構成をどのように促進するかを示す。
論文 参考訳(メタデータ) (2024-05-22T22:41:56Z) - Controlling Moments with Kernel Stein Discrepancies [74.82363458321939]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Keep it Tighter -- A Story on Analytical Mean Embeddings [0.6445605125467574]
カーネル技術は、データサイエンスにおいて最も人気があり柔軟なアプローチの一つである。
平均埋め込みは、最大平均不一致(MMD)と呼ばれる分岐測度をもたらす。
本稿では,基礎となる分布の1つの平均埋め込みが解析的に利用可能である場合のMDD推定の問題に焦点をあてる。
論文 参考訳(メタデータ) (2021-10-15T21:29:27Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Schoenberg-Rao distances: Entropy-based and geometry-aware statistical
Hilbert distances [12.729120803225065]
我々は、シェーンベルク-ラオ距離(Schoenberg-Rao distances)と呼ばれる統計ヒルベルト距離のクラスを研究する。
ガウス分布の混合物間の新しい閉形式距離を導出する。
提案手法はワッサーシュタイン距離の代替として実用的であり,その効率性は幅広い機械学習タスクで説明できる。
論文 参考訳(メタデータ) (2020-02-19T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。