論文の概要: Unified Unbiased Variance Estimation for MMD: Robust Finite-Sample Performance with Imbalanced Data and Exact Acceleration under Null and Alternative Hypotheses
- arxiv url: http://arxiv.org/abs/2601.13874v1
- Date: Tue, 20 Jan 2026 11:41:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.288218
- Title: Unified Unbiased Variance Estimation for MMD: Robust Finite-Sample Performance with Imbalanced Data and Exact Acceleration under Null and Alternative Hypotheses
- Title(参考訳): MMDの統一的不偏分散推定:不均衡データによるロバスト有限サンプル性能とNullおよび代替仮説によるエクササイズ
- Authors: Shijie Zhong, Jiangfeng Fu, Yikun Yang,
- Abstract要約: 最大平均誤差(英: maximum mean discrepancy、MMD)は、2サンプルテストのためのカーネルベースの非パラメトリック統計量である。
我々は,そのU統計表現とHoeffding分解によるMDD統計量の分散について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The maximum mean discrepancy (MMD) is a kernel-based nonparametric statistic for two-sample testing, whose inferential accuracy depends critically on variance characterization. Existing work provides various finite-sample estimators of the MMD variance, often differing under the null and alternative hypotheses and across balanced or imbalanced sampling schemes. In this paper, we study the variance of the MMD statistic through its U-statistic representation and Hoeffding decomposition, and establish a unified finite-sample characterization covering different hypotheses and sample configurations. Building on this analysis, we propose an exact acceleration method for the univariate case under the Laplacian kernel, which reduces the overall computational complexity from $\mathcal O(n^2)$ to $\mathcal O(n \log n)$.
- Abstract(参考訳): 最大平均誤差 (MMD) は、2サンプルテストのためのカーネルベースの非パラメトリック統計量であり、その推論精度は分散特性に大きく依存する。
既存の研究はMDD分散の様々な有限サンプル推定器を提供し、しばしばnullおよび代替仮説の下で、バランスの取れたあるいは不均衡なサンプリングスキームによって異なる。
本稿では,そのU-統計表現とHoeffding分解によるMDD統計量のばらつきについて検討し,異なる仮説とサンプル構成を網羅した統一有限サンプルキャラクタリゼーションを確立する。
この分析に基づいて、ラプラシアンカーネルの下での単変数の場合の正確な加速度法を提案し、計算の複雑さを$\mathcal O(n^2)$から$\mathcal O(n \log n)$に減らす。
関連論文リスト
- Maximum Mean Discrepancy with Unequal Sample Sizes via Generalized U-Statistics [12.514069914597782]
2サンプル試験技術は、最大平均離散性(MMD)の2つの分布から等しいサンプルサイズを仮定することが多い。
これらのメソッドを実際に適用するには、価値あるデータを捨てる必要があり、テストのパワーを必要としない。
一般化されたU統計理論を拡張し、通常のMDD推定器に適用することで、この長期的限界に対処する。
この一般化はまた、不等サンプルサイズでMDDテストのパワーを最適化するための新しい基準を提供する。
論文 参考訳(メタデータ) (2025-12-16T01:29:50Z) - Efficient Covariance Estimation for Sparsified Functional Data [51.69796254617083]
共分散関数のランダムノット(ランダムノット-空間)とB-スプライン(Bspline-Spatial)推定器は計算的に効率的である。
共分散の漸近的なポイントワイドは、ある規則性条件下でのスパース化された個々の軌跡に対して得られる。
論文 参考訳(メタデータ) (2025-11-23T00:50:33Z) - The Effect of Stochasticity in Score-Based Diffusion Sampling: a KL Divergence Analysis [0.0]
我々はKL(Kulback-Leibler)の生成過程に及ぼすばらつきの影響について検討する。
本研究の主な成果は、加算雑音とリプシッツ連続スコア関数を持つ線形前方SDEに適用する。
論文 参考訳(メタデータ) (2025-06-13T01:01:07Z) - Convergence of Score-Based Discrete Diffusion Models: A Discrete-Time Analysis [56.442307356162864]
連続時間マルコフ連鎖(CTMC)に基づくスコアベース離散拡散モデルの理論的側面について検討する。
本稿では,事前定義された時間点におけるスコア推定値を利用する離散時間サンプリングアルゴリズムを一般状態空間$[S]d$に導入する。
我々の収束解析はジルサノフ法を用いて離散スコア関数の重要な性質を確立する。
論文 参考訳(メタデータ) (2024-10-03T09:07:13Z) - Unveiling the Statistical Foundations of Chain-of-Thought Prompting Methods [59.779795063072655]
CoT(Chain-of-Thought)の促進とその変種は、多段階推論問題を解決する効果的な方法として人気を集めている。
統計的推定の観点からCoTのプロンプトを解析し,その複雑さを包括的に評価する。
論文 参考訳(メタデータ) (2024-08-25T04:07:18Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - A Uniform Concentration Inequality for Kernel-Based Two-Sample Statistics [4.757470449749877]
これらの指標はカーネルベースの2サンプル統計学の一般的な枠組みの下で統一可能であることを示す。
本稿では、上記のカーネルベースの統計量に対して、新しい一様濃度不等式を確立する。
図示的応用として,これらの境界が距離共分散に基づく次元減少などの手順における誤差境界の構成をどのように促進するかを示す。
論文 参考訳(メタデータ) (2024-05-22T22:41:56Z) - A Unified View of Stochastic Hamiltonian Sampling [18.300078015845262]
この研究は、後続サンプリングのためのハミルトン微分方程式(SDE)の理論的性質を再考する。
数値SDEシミュレーションから生じる2種類の誤差について検討し, 離散化誤差と雑音勾配推定による誤差について検討した。
論文 参考訳(メタデータ) (2021-06-30T16:50:11Z) - Minimax Optimal Estimation of KL Divergence for Continuous Distributions [56.29748742084386]
Kullback-Leibler の同一および独立に分布するサンプルからの発散は、様々な領域において重要な問題である。
単純で効果的な推定器の1つは、これらのサンプル間の近辺 k に基づいている。
論文 参考訳(メタデータ) (2020-02-26T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。