論文の概要: Kernel Trace Distance: Quantum Statistical Metric between Measures through RKHS Density Operators
- arxiv url: http://arxiv.org/abs/2507.06055v1
- Date: Tue, 08 Jul 2025 14:56:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.237766
- Title: Kernel Trace Distance: Quantum Statistical Metric between Measures through RKHS Density Operators
- Title(参考訳): カーネルトレース距離:RKHS密度演算子による測度間の量子統計量
- Authors: Arturo Castellanos, Anna Korba, Pavlo Mozharovskyi, Hicham Janati,
- Abstract要約: 核共分散作用素のシャッテンノルムを通して比較する測度間の新しい距離を導入する。
この新たな距離は、最大平均離散値(MMD)とワッサーシュタイン距離のフレーム化が可能な積分確率計量であることを示す。
- 参考スコア(独自算出の注目度): 11.899035547580201
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distances between probability distributions are a key component of many statistical machine learning tasks, from two-sample testing to generative modeling, among others. We introduce a novel distance between measures that compares them through a Schatten norm of their kernel covariance operators. We show that this new distance is an integral probability metric that can be framed between a Maximum Mean Discrepancy (MMD) and a Wasserstein distance. In particular, we show that it avoids some pitfalls of MMD, by being more discriminative and robust to the choice of hyperparameters. Moreover, it benefits from some compelling properties of kernel methods, that can avoid the curse of dimensionality for their sample complexity. We provide an algorithm to compute the distance in practice by introducing an extension of kernel matrix for difference of distributions that could be of independent interest. Those advantages are illustrated by robust approximate Bayesian computation under contamination as well as particle flow simulations.
- Abstract(参考訳): 確率分布間の距離は、2サンプルテストから生成モデルまで、多くの統計機械学習タスクの重要な要素である。
核共分散作用素のシャッテンノルムを通して比較する測度間の新しい距離を導入する。
この新たな距離は、最大平均離散値(MMD)とワッサーシュタイン距離のフレーム化が可能な積分確率計量であることを示す。
特に、過パラメータの選択に対してより差別的で堅牢であることから、MDDの落とし穴を回避できることが示されている。
さらに、カーネルメソッドのいくつかの魅力的な性質の恩恵を受けており、サンプルの複雑さに対する次元性の呪いを避けることができる。
本研究では,カーネル行列の拡張により,独立性のある分布の差を計算し,実際の距離を計算するアルゴリズムを提案する。
これらの利点は、汚染下でのロバストなベイズ近似計算と粒子流シミュレーションによって示される。
関連論文リスト
- Kernel Quantile Embeddings and Associated Probability Metrics [12.484632369259659]
カーネル量子埋め込み(KQE)の概念を導入する。
i) MMDよりも弱いカーネル条件下での確率測定値、(ii)スライスしたワッサーシュタイン距離のカーネル化形式を復元し、(iii) ほぼ直線的なコストで効率的に推定できる。
論文 参考訳(メタデータ) (2025-05-26T18:27:17Z) - A Uniform Concentration Inequality for Kernel-Based Two-Sample Statistics [4.757470449749877]
これらの指標はカーネルベースの2サンプル統計学の一般的な枠組みの下で統一可能であることを示す。
本稿では、上記のカーネルベースの統計量に対して、新しい一様濃度不等式を確立する。
図示的応用として,これらの境界が距離共分散に基づく次元減少などの手順における誤差境界の構成をどのように促進するかを示す。
論文 参考訳(メタデータ) (2024-05-22T22:41:56Z) - Boosting the Power of Kernel Two-Sample Tests [4.07125466598411]
最大平均誤差(MMD)に基づくカーネル2サンプルテストは、一般的な距離空間上の2つの分布の違いを検出する最も一般的な方法の1つである。
マハラノビス距離を用いて,複数のカーネル上でMDD推定値を組み合わせることで,カーネルテストのパワーを高める手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Kernel distance measures for time series, random fields and other
structured data [71.61147615789537]
kdiffは、構造化データのインスタンス間の距離を推定するためのカーネルベースの新しい尺度である。
これはインスタンス間の自己類似性と交差類似性の両方を考慮し、距離分布の低い定量値を用いて定義される。
kdiffをクラスタリングと分類問題のための距離尺度として用いた分離性条件について,いくつかの理論的結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T22:54:17Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Schoenberg-Rao distances: Entropy-based and geometry-aware statistical
Hilbert distances [12.729120803225065]
我々は、シェーンベルク-ラオ距離(Schoenberg-Rao distances)と呼ばれる統計ヒルベルト距離のクラスを研究する。
ガウス分布の混合物間の新しい閉形式距離を導出する。
提案手法はワッサーシュタイン距離の代替として実用的であり,その効率性は幅広い機械学習タスクで説明できる。
論文 参考訳(メタデータ) (2020-02-19T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。