論文の概要: KSD Aggregated Goodness-of-fit Test
- arxiv url: http://arxiv.org/abs/2202.00824v2
- Date: Thu, 3 Feb 2022 16:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 11:38:54.399618
- Title: KSD Aggregated Goodness-of-fit Test
- Title(参考訳): ksd集計適合性試験
- Authors: Antonin Schrab and Benjamin Guedj and Arthur Gretton
- Abstract要約: 我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
対数項まで、コレクションの最小の均一分離率を達成することを示す。
KSDAggは、他の最先端のKSDベースの適合性試験方法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 23.03137484760525
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We investigate properties of goodness-of-fit tests based on the Kernel Stein
Discrepancy (KSD). We introduce a strategy to construct a test, called KSDAgg,
which aggregates multiple tests with different kernels. KSDAgg avoids splitting
the data to perform kernel selection (which leads to a loss in test power), and
rather maximises the test power over a collection of kernels. We provide
theoretical guarantees on the power of KSDAgg: we show it achieves the smallest
uniform separation rate of the collection, up to a logarithmic term. KSDAgg can
be computed exactly in practice as it relies either on a parametric bootstrap
or on a wild bootstrap to estimate the quantiles and the level corrections. In
particular, for the crucial choice of bandwidth of a fixed kernel, it avoids
resorting to arbitrary heuristics (such as median or standard deviation) or to
data splitting. We find on both synthetic and real-world data that KSDAgg
outperforms other state-of-the-art adaptive KSD-based goodness-of-fit testing
procedures.
- Abstract(参考訳): Kernel Stein Discrepancy (KSD) に基づく適合性試験の特性について検討した。
我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
KSDAggは、データを分割してカーネル選択(テストパワーの損失につながる)することを避け、むしろカーネルのコレクション上でテストパワーを最大化する。
我々は、KSDAggのパワーに関する理論的保証を提供する: コレクションの最小の均一分離率を対数項まで達成することを示す。
ksdaggはパラメトリックブートストラップまたはワイルドブートストラップに依存して量子量とレベル補正を推定するため、実際に正確に計算することができる。
特に、固定カーネルの帯域幅を決定的に選択するためには、任意のヒューリスティック(中央値や標準偏差など)やデータの分割を避ける。
ksdaggが他の最先端アダプティブksdベースの適合性テスト手順よりも優れている合成データと実世界のデータの両方を見つけました。
関連論文リスト
- Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient
Kernels [60.35011738807833]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は、ベンチマークODEとPDE発見タスクのリストにおいて、KBASSの顕著な利点を示す。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Boosting the Power of Kernel Two-Sample Tests [7.1795069620810805]
マハラノビス距離を用いて、複数のカーネル上でMDD推定値を組み合わせることで、カーネルテストのパワーを高める方法を提案する。
結果として得られるテストは普遍的に一貫したものであり、カーネル/バンド幅の拒絶に対して集約することで得られるので、有限サンプルにおいて幅広い代替品を検出するのにより強力である。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Controlling Moments with Kernel Stein Discrepancies [80.27423363467499]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Targeted Separation and Convergence with Kernel Discrepancies [66.48817218787006]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Efficient Aggregated Kernel Tests using Incomplete $U$-statistics [22.251118308736327]
提案した3つのテストは、複数のカーネル帯域に集約され、さまざまなスケールでnullからの離脱を検出する。
提案した線形時間集約テストは,現在最先端の線形時間カーネルテストよりも高い出力が得られることを示す。
論文 参考訳(メタデータ) (2022-06-18T12:30:06Z) - A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces [6.437931786032493]
Kernel Stein discrepancy (KSD) は、確率測度間の差異のカーネルベースの尺度である。
我々は、分離可能なヒルベルト空間に横たわるデータの一般性において、KSDを初めて解析する。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
論文 参考訳(メタデータ) (2022-06-09T15:04:18Z) - MMD Aggregated Two-Sample Test [31.116276769013204]
平均最大離散性(MMD)に基づく2つの新しい非パラメトリック2サンプルカーネルテストを提案する。
まず、固定化されたカーネルに対して、置換またはワイルドブートストラップを用いてMDDテストを構築し、テストしきい値を決定するために2つの一般的な数値処理を行う。
本研究では,この実験が非漸近的にレベルを制御し,反復対数項までソボレフ球の最小値を達成することを証明した。
論文 参考訳(メタデータ) (2021-10-28T12:47:49Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Learning Kernel Tests Without Data Splitting [18.603394415852765]
データ分割なしにハイパーパラメータの学習と全サンプルでのテストを可能にするアプローチを提案する。
我々のアプローチの試験能力は、その分割割合に関係なく、データ分割アプローチよりも経験的に大きい。
論文 参考訳(メタデータ) (2020-06-03T14:07:39Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。