論文の概要: A Spectral Representation of Kernel Stein Discrepancy with Application
to Goodness-of-Fit Tests for Measures on Infinite Dimensional Hilbert Spaces
- arxiv url: http://arxiv.org/abs/2206.04552v1
- Date: Thu, 9 Jun 2022 15:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 19:17:55.877723
- Title: A Spectral Representation of Kernel Stein Discrepancy with Application
to Goodness-of-Fit Tests for Measures on Infinite Dimensional Hilbert Spaces
- Title(参考訳): カーネルスタインのスペクトル表現と無限次元ヒルベルト空間に対するグッドネス・オブ・フィット試験への応用
- Authors: George Wynne, Miko{\l}aj Kasprzak, Andrew B. Duncan
- Abstract要約: Kernel Stein discrepancy (KSD) は、確率測度間の不一致のカーネルベースの非パラメトリック測度である。
現在のKSD方法論の2つの主要な問題は、有限次元ユークリッド設定を超える適用可能性の欠如と、KSD性能にどのような影響を及ぼすかを明確にしないことである。
本稿では,KSDのスペクトル表現を新たに提供し,両者を修復し,KSDをヒルベルト評価データに適用する。
- 参考スコア(独自算出の注目度): 1.3213490507208525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kernel Stein discrepancy (KSD) is a widely used kernel-based non-parametric
measure of discrepancy between probability measures. It is often employed in
the scenario where a user has a collection of samples from a candidate
probability measure and wishes to compare them against a specified target
probability measure. A useful property of KSD is that it may be calculated with
samples from only the candidate measure and without knowledge of the
normalising constant of the target measure. KSD has been employed in a range of
settings including goodness-of-fit testing, parametric inference, MCMC output
assessment and generative modelling. Two main issues with current KSD
methodology are (i) the lack of applicability beyond the finite dimensional
Euclidean setting and (ii) a lack of clarity on what influences KSD
performance. This paper provides a novel spectral representation of KSD which
remedies both of these, making KSD applicable to Hilbert-valued data and
revealing the impact of kernel and Stein operator choice on the KSD. We
demonstrate the efficacy of the proposed methodology by performing
goodness-of-fit tests for various Gaussian and non-Gaussian functional models
in a number of synthetic data experiments.
- Abstract(参考訳): Kernel Stein discrepancy (KSD) は、確率測度間の不一致のカーネルベースの非パラメトリック測度である。
これは、ユーザが候補確率測度からサンプルを収集し、指定された目標確率測度と比較したい場合によく用いられる。
KSDの有用な性質は、候補測度のみからのサンプルで計算され、対象測度の正規化定数の知識がないことである。
KSDは、適合性試験、パラメトリック推論、MCMC出力評価、生成モデルなど、様々な設定で採用されている。
現在のKSD方法論の2つの主な課題
(i)有限次元ユークリッド設定を超えた適用性の欠如と
(II)KSD性能に影響を及ぼす要因の明確さの欠如。
本稿では,これらを改良し,ヒルベルト値データに適用可能なksdの新しいスペクトル表現を提供し,ksdに対するカーネルとスタイン演算子の選択の影響を明らかにする。
本稿では,様々なガウス関数モデルと非ガウス関数モデルの適合性テストを行い,提案手法の有効性を実証する。
関連論文リスト
- Nyström Kernel Stein Discrepancy [4.551160285910023]
我々は Nystr を用いた KSD アクセラレーションを提案し,ランタイム $mathcal Oleft(mn+m3right)$ for $n$ サンプルと $mll n$ Nystr"om ポイントについて述べる。
我々は、その$sqrtn$-consistencyと古典的なガウスの仮定を示し、一連のベンチマークで適合性テストの適用性を示す。
論文 参考訳(メタデータ) (2024-06-12T16:50:12Z) - Minimax Optimal Goodness-of-Fit Testing with Kernel Stein Discrepancy [13.429541377715298]
我々は、カーネル化されたStein discrepancy (KSD) を用いた一般領域における適合性試験の極小最適性について検討する。
KSDフレームワークは、優れたテストのための柔軟なアプローチを提供し、強い分散仮定を避けます。
未知のパラメータに適応することで、対数係数まで最小限の最適性を達成できる適応テストを導入する。
論文 参考訳(メタデータ) (2024-04-12T07:06:12Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Machine-Learned Exclusion Limits without Binning [0.0]
我々は、1次元信号と背景確率密度関数を抽出するためにカーネル密度推定器(KDE)を含むMLL法を拡張した。
本手法は,レプトン対に崩壊するエキゾチックヒッグス粒子の探索と,レプトン対に崩壊するZ'$ボソンの2例に適用する。
論文 参考訳(メタデータ) (2022-11-09T11:04:50Z) - A kernel Stein test of goodness of fit for sequential models [19.8408003104988]
提案手法は、非正規化密度の良性テストを構築するために用いられてきたカーネルSteindisrepancy(KSD)の例である。
我々は、適切なスタイン演算子を同定することで、KSDを可変次元設定に拡張し、新しいKSD適合性テストを提案する。
我々のテストは、離散的なシーケンシャルなデータベンチマークで実際によく機能することが示されている。
論文 参考訳(メタデータ) (2022-10-19T17:30:15Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Experimental Design for Linear Functionals in Reproducing Kernel Hilbert
Spaces [102.08678737900541]
線形汎関数に対するバイアス認識設計のためのアルゴリズムを提供する。
準ガウス雑音下での固定および適応設計に対する漸近的でない信頼集合を導出する。
論文 参考訳(メタデータ) (2022-05-26T20:56:25Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - KSD Aggregated Goodness-of-fit Test [38.45086141837479]
我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
我々は、KSDAggのパワーに関する漸近的でない保証を提供する。
KSDAggは、他の最先端のKSDベースの適合性試験方法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-02T00:33:09Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。