論文の概要: A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces
- arxiv url: http://arxiv.org/abs/2206.04552v3
- Date: Sun, 20 Aug 2023 14:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 03:04:46.599669
- Title: A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces
- Title(参考訳): カーネルスタインのフーリエ表現と有限次元ヒルベルト空間上の測度に対するグッドネス・オブ・フィットテストへの応用
- Authors: George Wynne, Miko{\l}aj Kasprzak, Andrew B. Duncan
- Abstract要約: Kernel Stein discrepancy (KSD) は、確率測度間の差異のカーネルベースの尺度である。
我々は、分離可能なヒルベルト空間に横たわるデータの一般性において、KSDを初めて解析する。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
- 参考スコア(独自算出の注目度): 6.437931786032493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kernel Stein discrepancy (KSD) is a widely used kernel-based measure of
discrepancy between probability measures. It is often employed in the scenario
where a user has a collection of samples from a candidate probability measure
and wishes to compare them against a specified target probability measure. KSD
has been employed in a range of settings including goodness-of-fit testing,
parametric inference, MCMC output assessment and generative modelling. However,
so far the method has been restricted to finite-dimensional data. We provide
the first analysis of KSD in the generality of data lying in a separable
Hilbert space, for example functional data. The main result is a novel Fourier
representation of KSD obtained by combining the theory of measure equations
with kernel methods. This allows us to prove that KSD can separate measures and
thus is valid to use in practice. Additionally, our results improve the
interpretability of KSD by decoupling the effect of the kernel and Stein
operator. We demonstrate the efficacy of the proposed methodology by performing
goodness-of-fit tests for various Gaussian and non-Gaussian functional models
in a number of synthetic data experiments.
- Abstract(参考訳): Kernel Stein discrepancy (KSD) は、確率測度間の不一致のカーネルベースの測度である。
これは、ユーザが候補確率測度からサンプルを収集し、指定された目標確率測度と比較したい場合によく用いられる。
KSDは、適合性試験、パラメトリック推論、MCMC出力評価、生成モデルなど、様々な設定で採用されている。
しかし、今のところは有限次元のデータに制限されている。
分離可能なヒルベルト空間(例えば関数データ)にあるデータの一般性において、ksdの最初の解析を提供する。
主な結果は、測度方程式の理論と核法を組み合わせることで得られる ksd の新たなフーリエ表現である。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
さらに,カーネルとスタイン演算子の効果を分離することにより,KSDの解釈可能性を向上させる。
本稿では,様々なガウス関数モデルと非ガウス関数モデルの適合性テストを行い,提案手法の有効性を実証する。
関連論文リスト
- Nyström Kernel Stein Discrepancy [4.551160285910023]
我々は Nystr を用いた KSD アクセラレーションを提案し,ランタイム $mathcal Oleft(mn+m3right)$ for $n$ サンプルと $mll n$ Nystr"om ポイントについて述べる。
我々は、その$sqrtn$-consistencyと古典的なガウスの仮定を示し、一連のベンチマークで適合性テストの適用性を示す。
論文 参考訳(メタデータ) (2024-06-12T16:50:12Z) - Minimax Optimal Goodness-of-Fit Testing with Kernel Stein Discrepancy [13.429541377715298]
我々は、カーネル化されたStein discrepancy (KSD) を用いた一般領域における適合性試験の極小最適性について検討する。
KSDフレームワークは、優れたテストのための柔軟なアプローチを提供し、強い分散仮定を避けます。
未知のパラメータに適応することで、対数係数まで最小限の最適性を達成できる適応テストを導入する。
論文 参考訳(メタデータ) (2024-04-12T07:06:12Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Machine-Learned Exclusion Limits without Binning [0.0]
我々は、1次元信号と背景確率密度関数を抽出するためにカーネル密度推定器(KDE)を含むMLL法を拡張した。
本手法は,レプトン対に崩壊するエキゾチックヒッグス粒子の探索と,レプトン対に崩壊するZ'$ボソンの2例に適用する。
論文 参考訳(メタデータ) (2022-11-09T11:04:50Z) - A kernel Stein test of goodness of fit for sequential models [19.8408003104988]
提案手法は、非正規化密度の良性テストを構築するために用いられてきたカーネルSteindisrepancy(KSD)の例である。
我々は、適切なスタイン演算子を同定することで、KSDを可変次元設定に拡張し、新しいKSD適合性テストを提案する。
我々のテストは、離散的なシーケンシャルなデータベンチマークで実際によく機能することが示されている。
論文 参考訳(メタデータ) (2022-10-19T17:30:15Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Experimental Design for Linear Functionals in Reproducing Kernel Hilbert
Spaces [102.08678737900541]
線形汎関数に対するバイアス認識設計のためのアルゴリズムを提供する。
準ガウス雑音下での固定および適応設計に対する漸近的でない信頼集合を導出する。
論文 参考訳(メタデータ) (2022-05-26T20:56:25Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - KSD Aggregated Goodness-of-fit Test [38.45086141837479]
我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
我々は、KSDAggのパワーに関する漸近的でない保証を提供する。
KSDAggは、他の最先端のKSDベースの適合性試験方法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-02T00:33:09Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。