論文の概要: KSD Aggregated Goodness-of-fit Test
- arxiv url: http://arxiv.org/abs/2202.00824v1
- Date: Wed, 2 Feb 2022 00:33:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:18:16.555960
- Title: KSD Aggregated Goodness-of-fit Test
- Title(参考訳): ksd集計適合性試験
- Authors: Schrab Antonin and Guedj Benjamin and Gretton Arthur
- Abstract要約: 我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
対数項まで、コレクションの最小の均一分離率を達成することを示す。
KSDAggは、他の最先端のKSDベースの適合性試験方法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We investigate properties of goodness-of-fit tests based on the Kernel Stein
Discrepancy (KSD). We introduce a strategy to construct a test, called KSDAgg,
which aggregates multiple tests with different kernels. KSDAgg avoids splitting
the data to perform kernel selection (which leads to a loss in test power), and
rather maximises the test power over a collection of kernels. We provide
theoretical guarantees on the power of KSDAgg: we show it achieves the smallest
uniform separation rate of the collection, up to a logarithmic term. KSDAgg can
be computed exactly in practice as it relies either on a parametric bootstrap
or on a wild bootstrap to estimate the quantiles and the level corrections. In
particular, for the crucial choice of bandwidth of a fixed kernel, it avoids
resorting to arbitrary heuristics (such as median or standard deviation) or to
data splitting. We find on both synthetic and real-world data that KSDAgg
outperforms other state-of-the-art adaptive KSD-based goodness-of-fit testing
procedures.
- Abstract(参考訳): Kernel Stein Discrepancy (KSD) に基づく適合性試験の特性について検討した。
我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
KSDAggは、データを分割してカーネル選択(テストパワーの損失につながる)することを避け、むしろカーネルのコレクション上でテストパワーを最大化する。
我々は、KSDAggのパワーに関する理論的保証を提供する: コレクションの最小の均一分離率を対数項まで達成することを示す。
ksdaggはパラメトリックブートストラップまたはワイルドブートストラップに依存して量子量とレベル補正を推定するため、実際に正確に計算することができる。
特に、固定カーネルの帯域幅を決定的に選択するためには、任意のヒューリスティック(中央値や標準偏差など)やデータの分割を避ける。
ksdaggが他の最先端アダプティブksdベースの適合性テスト手順よりも優れている合成データと実世界のデータの両方を見つけました。
関連論文リスト
- Supervised Kernel Thinning [6.6157730528755065]
Dwivedi & Mackey (2024) のカーネルスライニングアルゴリズムは、一般的な点集合のより優れた圧縮を提供する。
我々はKTアルゴリズムを一般化し、カーネルメソッドを含む教師付き学習問題を高速化する。
論文 参考訳(メタデータ) (2024-10-17T16:48:51Z) - Nyström Kernel Stein Discrepancy [4.551160285910023]
我々は Nystr を用いた KSD アクセラレーションを提案し,ランタイム $mathcal Oleft(mn+m3right)$ for $n$ サンプルと $mll n$ Nystr"om ポイントについて述べる。
我々は、その$sqrtn$-consistencyと古典的なガウスの仮定を示し、一連のベンチマークで適合性テストの適用性を示す。
論文 参考訳(メタデータ) (2024-06-12T16:50:12Z) - Minimax Optimal Goodness-of-Fit Testing with Kernel Stein Discrepancy [13.429541377715298]
我々は、カーネル化されたStein discrepancy (KSD) を用いた一般領域における適合性試験の極小最適性について検討する。
KSDフレームワークは、優れたテストのための柔軟なアプローチを提供し、強い分散仮定を避けます。
未知のパラメータに適応することで、対数係数まで最小限の最適性を達成できる適応テストを導入する。
論文 参考訳(メタデータ) (2024-04-12T07:06:12Z) - Byzantine-resilient Federated Learning With Adaptivity to Data Heterogeneity [54.145730036889496]
本稿では、ビザンツの悪意ある攻撃データの存在下でのグラディエント・ラーニング(FL)を扱う。
Average Algorithm (RAGA) が提案され、ロバストネスアグリゲーションを活用してデータセットを選択することができる。
論文 参考訳(メタデータ) (2024-03-20T08:15:08Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Controlling Moments with Kernel Stein Discrepancies [74.82363458321939]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Efficient Aggregated Kernel Tests using Incomplete $U$-statistics [22.251118308736327]
提案した3つのテストは、複数のカーネル帯域に集約され、さまざまなスケールでnullからの離脱を検出する。
提案した線形時間集約テストは,現在最先端の線形時間カーネルテストよりも高い出力が得られることを示す。
論文 参考訳(メタデータ) (2022-06-18T12:30:06Z) - A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces [6.437931786032493]
Kernel Stein discrepancy (KSD) は、確率測度間の差異のカーネルベースの尺度である。
我々は、分離可能なヒルベルト空間に横たわるデータの一般性において、KSDを初めて解析する。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
論文 参考訳(メタデータ) (2022-06-09T15:04:18Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。