論文の概要: Quantum-inspired probability metrics define a complete, universal space for statistical learning
- arxiv url: http://arxiv.org/abs/2508.21086v2
- Date: Sat, 06 Sep 2025 15:48:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.333344
- Title: Quantum-inspired probability metrics define a complete, universal space for statistical learning
- Title(参考訳): 量子インスパイアされた確率測度は、統計学習のための完全で普遍的な空間を定義する
- Authors: Logan S. McCarty,
- Abstract要約: 量子状態空間に確率測度を埋め込んだ量子確率測度(QPM)を導入する。
QPMは最大平均離散(MMD)のドロップイン置換として性能を著しく向上させる
このアプローチは、確率測度を分析し、操作するための強力なツールの基礎を築いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Comparing probability distributions is a core challenge across the natural, social, and computational sciences. Existing methods, such as Maximum Mean Discrepancy (MMD), struggle in high-dimensional and non-compact domains. Here we introduce quantum probability metrics (QPMs), derived by embedding probability measures in the space of quantum states: positive, unit-trace operators on a Hilbert space. This construction extends kernel-based methods and overcomes the incompleteness of MMD on non-compact spaces. Viewed as an integral probability metric (IPM), QPMs have dual functions that uniformly approximate all bounded, uniformly continuous functions on $\mathbb{R}^n$, offering enhanced sensitivity to subtle distributional differences in high dimensions. For empirical distributions, QPMs are readily calculated using eigenvalue methods, with analytic gradients suited for learning and optimization. Although computationally more intensive for large sample sizes ($O(n^3)$ vs. $O(n^2)$), QPMs can significantly improve performance as a drop-in replacement for MMD, as demonstrated in a classic generative modeling task. By combining the rich mathematical framework of quantum mechanics with classical probability theory, this approach lays the foundation for powerful tools to analyze and manipulate probability measures.
- Abstract(参考訳): 確率分布を比較することは、自然科学、社会科学、計算科学における中心的な課題である。
最大平均離散性(MMD)のような既存の手法は、高次元および非コンパクト領域で苦労する。
ここでは、ヒルベルト空間上の正の単位トレース作用素である量子状態空間に確率測度を埋め込むことによって導かれる量子確率測度(QPM)を紹介する。
この構成はカーネルベースの手法を拡張し、非コンパクト空間上でのMDDの不完全性を克服する。
積分確率計量 (IPM) として見なされ、QPM は、高次元の微妙な分布差に対する感度を高めるために、$\mathbb{R}^n$ 上のすべての有界で一様連続な函数を均一に近似する双対函数を持つ。
経験的分布の場合、QPMは固有値法を用いて容易に計算され、学習と最適化に適した解析勾配を持つ。
大規模なサンプルサイズ (O(n^3)$ vs. $O(n^2)$) では計算量が多いが、古典的な生成モデルタスクで示されているように、QPMはMDDのドロップイン置換としての性能を著しく向上させることができる。
量子力学のリッチな数学的枠組みと古典的確率論を組み合わせることで、この手法は確率測度を解析・操作するための強力なツールの基礎を築いた。
関連論文リスト
- DO-EM: Density Operator Expectation Maximization [10.697014584408963]
我々は,従来のハードウェア上でtextbfDOM によって定義された潜在変数モデルを学習するための期待最大化フレームワークを開発した。
textbfDO-EMアルゴリズムは,多種多様なモデルに対して,反復的かつ非減少的なログ類似性を保証する。
我々は、DBMと同じリソースでトレーニングできるtextbfDOMである、Quantum Interleaved Deep Boltzmann Machines (textbfQiDBMs)を提案する。
論文 参考訳(メタデータ) (2025-07-30T15:51:20Z) - Kernel Trace Distance: Quantum Statistical Metric between Measures through RKHS Density Operators [11.899035547580201]
核共分散作用素のシャッテンノルムを通して比較する測度間の新しい距離を導入する。
この新たな距離は、最大平均離散値(MMD)とワッサーシュタイン距離のフレーム化が可能な積分確率計量であることを示す。
論文 参考訳(メタデータ) (2025-07-08T14:56:44Z) - Kernel Quantile Embeddings and Associated Probability Metrics [12.484632369259659]
カーネル量子埋め込み(KQE)の概念を導入する。
i) MMDよりも弱いカーネル条件下での確率測定値、(ii)スライスしたワッサーシュタイン距離のカーネル化形式を復元し、(iii) ほぼ直線的なコストで効率的に推定できる。
論文 参考訳(メタデータ) (2025-05-26T18:27:17Z) - Conditional Distribution Quantization in Machine Learning [83.54039134248231]
条件予測 mathbbE(Y Mid X) はしばしば、マルチモーダル条件分布の複雑さを捉えることに失敗する(Y Mid X)
我々はn点条件量子化(n-point Conditional Quantizations)-勾配降下により学習可能なXの関数写像--近似数学L(Y mid X)-を提案する。
論文 参考訳(メタデータ) (2025-02-11T00:28:24Z) - Optimal Scaling for Locally Balanced Proposals in Discrete Spaces [65.14092237705476]
離散空間におけるMetropolis-Hastings (M-H) アルゴリズムの効率は、対象分布に依存しない受容率によって特徴づけられることを示す。
最適受容率の知識は、連続空間におけるステップサイズ制御と直接的に類似して、離散空間における提案分布の近傍サイズを自動的に調整することを可能にする。
論文 参考訳(メタデータ) (2022-09-16T22:09:53Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Learning with Density Matrices and Random Features [44.98964870180375]
密度行列は、量子系の統計状態を記述する。
量子系の量子的不確実性と古典的不確実性の両方を表現することは強力な形式主義である。
本稿では,機械学習モデルのビルディングブロックとして密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z) - Generalized Sliced Distances for Probability Distributions [47.543990188697734]
我々は、一般化スライス確率測定(GSPM)と呼ばれる、幅広い確率測定値の族を紹介する。
GSPMは一般化されたラドン変換に根付いており、ユニークな幾何学的解釈を持つ。
GSPMに基づく勾配流を生成モデル応用に適用し、軽度な仮定の下では、勾配流が大域的最適に収束することを示す。
論文 参考訳(メタデータ) (2020-02-28T04:18:00Z) - Schoenberg-Rao distances: Entropy-based and geometry-aware statistical
Hilbert distances [12.729120803225065]
我々は、シェーンベルク-ラオ距離(Schoenberg-Rao distances)と呼ばれる統計ヒルベルト距離のクラスを研究する。
ガウス分布の混合物間の新しい閉形式距離を導出する。
提案手法はワッサーシュタイン距離の代替として実用的であり,その効率性は幅広い機械学習タスクで説明できる。
論文 参考訳(メタデータ) (2020-02-19T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。