論文の概要: Scalable Kernel-Based Distances for Statistical Inference and Integration
- arxiv url: http://arxiv.org/abs/2602.21846v1
- Date: Wed, 25 Feb 2026 12:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.828948
- Title: Scalable Kernel-Based Distances for Statistical Inference and Integration
- Title(参考訳): 統計的推論と統合のためのスケーラブルカーネルベース距離
- Authors: Masha Naslidnyk,
- Abstract要約: 最大平均誤差(英: Maximum mean discrepancy、MMD)は、ヒルベルト空間平均関数を比較することによって構築されたカーネルベースの距離である。
MMDはその計算的トラクタビリティのために大きな注目を集めており、実践者によって好まれている。
本論では,効率的な計算に焦点をあてたカーネルベース距離の徹底的な研究を行う。
- 参考スコア(独自算出の注目度): 0.8122270502556375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Representing, comparing, and measuring the distance between probability distributions is a key task in computational statistics and machine learning. The choice of representation and the associated distance determine properties of the methods in which they are used: for example, certain distances can allow one to encode robustness or smoothness of the problem. Kernel methods offer flexible and rich Hilbert space representations of distributions that allow the modeller to enforce properties through the choice of kernel, and estimate associated distances at efficient nonparametric rates. In particular, the maximum mean discrepancy (MMD), a kernel-based distance constructed by comparing Hilbert space mean functions, has received significant attention due to its computational tractability and is favoured by practitioners. In this thesis, we conduct a thorough study of kernel-based distances with a focus on efficient computation, with core contributions in Chapters 3 to 6. Part I of the thesis is focused on the MMD, specifically on improved MMD estimation. In Chapter 3 we propose a theoretically sound, improved estimator for MMD in simulation-based inference. Then, in Chapter 4, we propose an MMD-based estimator for conditional expectations, a ubiquitous task in statistical computation. Closing Part I, in Chapter 5 we study the problem of calibration when MMD is applied to the task of integration. In Part II, motivated by the recent developments in kernel embeddings beyond the mean, we introduce a family of novel kernel-based discrepancies: kernel quantile discrepancies. These address some of the pitfalls of MMD, and are shown through both theoretical results and an empirical study to offer a competitive alternative to MMD and its fast approximations. We conclude with a discussion on broader lessons and future work emerging from the thesis.
- Abstract(参考訳): 確率分布間の距離を表現、比較、測定することは、計算統計学と機械学習において重要な課題である。
表現の選択と関連する距離は、それらが使われる方法の特性を決定する:例えば、ある距離は問題の堅牢性や滑らかさを符号化することができる。
カーネル法は分布のフレキシブルでリッチなヒルベルト空間表現を提供し、モデラーはカーネルの選択を通じて特性を強制し、効率的な非パラメトリックレートで関連する距離を推定する。
特に、ヒルベルト空間平均関数を比較することで構築されたカーネルベース距離である最大平均誤差 (MMD) は、計算的トラクタビリティにより大きな注目を集めており、実践者によって好まれている。
本論では,3章から6章のコアコントリビューションを用いて,効率的な計算に焦点を当てたカーネルベース距離の徹底的な研究を行う。
論文の第1部はMDDに焦点を当て、特にMDD推定の改善に焦点を当てている。
第3章では、シミュレーションベース推論におけるMDDのための理論的に健全で改良された推定器を提案する。
そして、第4章で、統計的計算におけるユビキタスタスクである条件予測のためのMDDに基づく推定器を提案する。
第1章では,MDDを統合タスクに適用する場合の校正問題について検討する。
第II部では、カーネルの埋め込みが平均を超えた最近の発展を動機として、カーネルベースの新しい相違点であるカーネル量子的相違点(カーネル量子的相違点)のファミリーを紹介した。
これらはMDDの落とし穴のいくつかに対処し、MDDの高速近似と競合する代替手段を提供するための理論的結果と実証的研究の両方を通して示される。
論文から生まれたより広範な教訓と今後の研究について、議論を締めくくった。
関連論文リスト
- Kernel Trace Distance: Quantum Statistical Metric between Measures through RKHS Density Operators [11.899035547580201]
核共分散作用素のシャッテンノルムを通して比較する測度間の新しい距離を導入する。
この新たな距離は、最大平均離散値(MMD)とワッサーシュタイン距離のフレーム化が可能な積分確率計量であることを示す。
論文 参考訳(メタデータ) (2025-07-08T14:56:44Z) - Kernel Quantile Embeddings and Associated Probability Metrics [12.484632369259659]
カーネル量子埋め込み(KQE)の概念を導入する。
i) MMDよりも弱いカーネル条件下での確率測定値、(ii)スライスしたワッサーシュタイン距離のカーネル化形式を復元し、(iii) ほぼ直線的なコストで効率的に推定できる。
論文 参考訳(メタデータ) (2025-05-26T18:27:17Z) - A Uniform Concentration Inequality for Kernel-Based Two-Sample Statistics [4.757470449749877]
これらの指標はカーネルベースの2サンプル統計学の一般的な枠組みの下で統一可能であることを示す。
本稿では、上記のカーネルベースの統計量に対して、新しい一様濃度不等式を確立する。
図示的応用として,これらの境界が距離共分散に基づく次元減少などの手順における誤差境界の構成をどのように促進するかを示す。
論文 参考訳(メタデータ) (2024-05-22T22:41:56Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Cycle Consistent Probability Divergences Across Different Spaces [38.43511529063335]
確率分布の相違は、統計的推測と機械学習の核心にある。
本研究は, 異方性, 異方性, 異方性, 異なる空間上の分布をマッチングするための, アンバランスなモンジュ最適輸送定式化を提案する。
論文 参考訳(メタデータ) (2021-11-22T16:35:58Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Schoenberg-Rao distances: Entropy-based and geometry-aware statistical
Hilbert distances [12.729120803225065]
我々は、シェーンベルク-ラオ距離(Schoenberg-Rao distances)と呼ばれる統計ヒルベルト距離のクラスを研究する。
ガウス分布の混合物間の新しい閉形式距離を導出する。
提案手法はワッサーシュタイン距離の代替として実用的であり,その効率性は幅広い機械学習タスクで説明できる。
論文 参考訳(メタデータ) (2020-02-19T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。