論文の概要: KSD Aggregated Goodness-of-fit Test
- arxiv url: http://arxiv.org/abs/2202.00824v6
- Date: Wed, 20 Dec 2023 23:49:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 19:42:25.919406
- Title: KSD Aggregated Goodness-of-fit Test
- Title(参考訳): ksd集計適合性試験
- Authors: Antonin Schrab and Benjamin Guedj and Arthur Gretton
- Abstract要約: 我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
我々は、KSDAggのパワーに関する漸近的でない保証を提供する。
KSDAggは、他の最先端のKSDベースの適合性試験方法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 38.45086141837479
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We investigate properties of goodness-of-fit tests based on the Kernel Stein
Discrepancy (KSD). We introduce a strategy to construct a test, called KSDAgg,
which aggregates multiple tests with different kernels. KSDAgg avoids splitting
the data to perform kernel selection (which leads to a loss in test power), and
rather maximises the test power over a collection of kernels. We provide
non-asymptotic guarantees on the power of KSDAgg: we show it achieves the
smallest uniform separation rate of the collection, up to a logarithmic term.
For compactly supported densities with bounded model score function, we derive
the rate for KSDAgg over restricted Sobolev balls; this rate corresponds to the
minimax optimal rate over unrestricted Sobolev balls, up to an iterated
logarithmic term. KSDAgg can be computed exactly in practice as it relies
either on a parametric bootstrap or on a wild bootstrap to estimate the
quantiles and the level corrections. In particular, for the crucial choice of
bandwidth of a fixed kernel, it avoids resorting to arbitrary heuristics (such
as median or standard deviation) or to data splitting. We find on both
synthetic and real-world data that KSDAgg outperforms other state-of-the-art
quadratic-time adaptive KSD-based goodness-of-fit testing procedures.
- Abstract(参考訳): Kernel Stein Discrepancy (KSD) に基づく適合性試験の特性について検討した。
我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
KSDAggは、データを分割してカーネル選択(テストパワーの損失につながる)することを避け、むしろカーネルのコレクション上でテストパワーを最大化する。
我々はKSDAggのパワーに関する漸近的でない保証を提供し、対数項まで、コレクションの最小一様分離率を達成することを示す。
有界モデルスコア関数を持つコンパクトに支持された密度に対しては、制限されたソボレフ球上のksdaggの速度を導出する。
ksdaggはパラメトリックブートストラップまたはワイルドブートストラップに依存して量子量とレベル補正を推定するため、実際に正確に計算することができる。
特に、固定カーネルの帯域幅を決定的に選択するためには、任意のヒューリスティック(中央値や標準偏差など)やデータの分割を避ける。
我々は、KSDAggが他の最先端の二次時間適応型KSDベースの良質なテスト手順よりも優れる合成データと実世界のデータの両方を見いだした。
関連論文リスト
- Supervised Kernel Thinning [6.6157730528755065]
Dwivedi & Mackey (2024) のカーネルスライニングアルゴリズムは、一般的な点集合のより優れた圧縮を提供する。
我々はKTアルゴリズムを一般化し、カーネルメソッドを含む教師付き学習問題を高速化する。
論文 参考訳(メタデータ) (2024-10-17T16:48:51Z) - Nyström Kernel Stein Discrepancy [4.551160285910023]
我々は Nystr を用いた KSD アクセラレーションを提案し,ランタイム $mathcal Oleft(mn+m3right)$ for $n$ サンプルと $mll n$ Nystr"om ポイントについて述べる。
我々は、その$sqrtn$-consistencyと古典的なガウスの仮定を示し、一連のベンチマークで適合性テストの適用性を示す。
論文 参考訳(メタデータ) (2024-06-12T16:50:12Z) - Minimax Optimal Goodness-of-Fit Testing with Kernel Stein Discrepancy [13.429541377715298]
我々は、カーネル化されたStein discrepancy (KSD) を用いた一般領域における適合性試験の極小最適性について検討する。
KSDフレームワークは、優れたテストのための柔軟なアプローチを提供し、強い分散仮定を避けます。
未知のパラメータに適応することで、対数係数まで最小限の最適性を達成できる適応テストを導入する。
論文 参考訳(メタデータ) (2024-04-12T07:06:12Z) - Byzantine-resilient Federated Learning With Adaptivity to Data Heterogeneity [54.145730036889496]
本稿では、ビザンツの悪意ある攻撃データの存在下でのグラディエント・ラーニング(FL)を扱う。
Average Algorithm (RAGA) が提案され、ロバストネスアグリゲーションを活用してデータセットを選択することができる。
論文 参考訳(メタデータ) (2024-03-20T08:15:08Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Controlling Moments with Kernel Stein Discrepancies [74.82363458321939]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Efficient Aggregated Kernel Tests using Incomplete $U$-statistics [22.251118308736327]
提案した3つのテストは、複数のカーネル帯域に集約され、さまざまなスケールでnullからの離脱を検出する。
提案した線形時間集約テストは,現在最先端の線形時間カーネルテストよりも高い出力が得られることを示す。
論文 参考訳(メタデータ) (2022-06-18T12:30:06Z) - A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces [6.437931786032493]
Kernel Stein discrepancy (KSD) は、確率測度間の差異のカーネルベースの尺度である。
我々は、分離可能なヒルベルト空間に横たわるデータの一般性において、KSDを初めて解析する。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
論文 参考訳(メタデータ) (2022-06-09T15:04:18Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。