論文の概要: Generalised Kernel Stein Discrepancy(GKSD): A Unifying Approach for
Non-parametric Goodness-of-fit Testing
- arxiv url: http://arxiv.org/abs/2106.12105v1
- Date: Wed, 23 Jun 2021 00:44:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 01:28:52.106627
- Title: Generalised Kernel Stein Discrepancy(GKSD): A Unifying Approach for
Non-parametric Goodness-of-fit Testing
- Title(参考訳): GKSD(Generalized Kernel Stein Discrepancy) : 非パラメトリックグッドネス・オブ・フィットテストのための統一的アプローチ
- Authors: Wenkai Xu
- Abstract要約: KSD(Non-parametric Goodness-of-fit testing procedure)は、一般的な非正規分布を検証するための有望なアプローチである。
我々は,KSDに基づく適合性テストの実行において,異なるStein演算子を理論的に比較・解釈するための統一フレームワークである一般化カーネルSteindisrepancy(GKSD)を提案する。
- 参考スコア(独自算出の注目度): 5.885020100736158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-parametric goodness-of-fit testing procedures based on kernel Stein
discrepancies (KSD) are promising approaches to validate general unnormalised
distributions in various scenarios. Existing works have focused on studying
optimal kernel choices to boost test performances. However, the Stein operators
are generally non-unique, while different choices of Stein operators can also
have considerable effect on the test performances. In this work, we propose a
unifying framework, the generalised kernel Stein discrepancy (GKSD), to
theoretically compare and interpret different Stein operators in performing the
KSD-based goodness-of-fit tests. We derive explicitly that how the proposed
GKSD framework generalises existing Stein operators and their corresponding
tests. In addition, we show thatGKSD framework can be used as a guide to
develop kernel-based non-parametric goodness-of-fit tests for complex new data
scenarios, e.g. truncated distributions or compositional data. Experimental
results demonstrate that the proposed tests control type-I error well and
achieve higher test power than existing approaches, including the test based on
maximum-mean-discrepancy (MMD).
- Abstract(参考訳): kernel stein discrepancies (ksd)に基づく非パラメトリックな適合性テスト手順は、様々なシナリオにおける一般的な非正規化分布を検証するための有望なアプローチである。
既存の研究は、テスト性能を高めるために最適なカーネルの選択を研究することに重点を置いている。
しかし、スタイン作用素は一般に普遍的ではないが、スタイン作用素の異なる選択はテスト性能にかなりの影響を及ぼす。
そこで本研究では,KSDに基づく適合性テストの実行において,異なるStein演算子を理論的に比較・解釈する汎用カーネルStein差分法(GKSD)を提案する。
提案したGKSDフレームワークが既存のStein演算子とその対応するテストをどのように一般化するかを明確に導出する。
さらに、GKSDフレームワークは、カーネルベースの複雑な新しいデータシナリオのための非パラメトリック良性テストを開発するためのガイドとして使用できることを示す。
断続分布または構成データ。
実験結果から,提案したテストは,最大平均分解率(MMD)に基づくテストを含む既存手法よりも高いテストパワーを達成できることがわかった。
関連論文リスト
- Minimax Optimal Goodness-of-Fit Testing with Kernel Stein Discrepancy [13.429541377715298]
我々は、カーネル化されたStein discrepancy (KSD) を用いた一般領域における適合性試験の極小最適性について検討する。
KSDフレームワークは、優れたテストのための柔軟なアプローチを提供し、強い分散仮定を避けます。
未知のパラメータに適応することで、対数係数まで最小限の最適性を達成できる適応テストを導入する。
論文 参考訳(メタデータ) (2024-04-12T07:06:12Z) - Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - Using Perturbation to Improve Goodness-of-Fit Tests based on Kernelized
Stein Discrepancy [3.78967502155084]
Kernelized Stein discrepancy (KSD) は、良質なテストで広く使われているスコアベースの不一致である。
我々は、KSD試験が、ターゲットと代替分布が同一の分離モードを持つが混合比が異なる場合、低出力に悩まされることを理論的かつ実証的に示す。
論文 参考訳(メタデータ) (2023-04-28T11:13:18Z) - A kernel Stein test of goodness of fit for sequential models [19.8408003104988]
提案手法は、非正規化密度の良性テストを構築するために用いられてきたカーネルSteindisrepancy(KSD)の例である。
我々は、適切なスタイン演算子を同定することで、KSDを可変次元設定に拡張し、新しいKSD適合性テストを提案する。
我々のテストは、離散的なシーケンシャルなデータベンチマークで実際によく機能することが示されている。
論文 参考訳(メタデータ) (2022-10-19T17:30:15Z) - On RKHS Choices for Assessing Graph Generators via Kernel Stein
Statistics [8.987015146366216]
ランダムネットワークモデルのKSDテストにおけるRKHS選択の効果を評価する。
本研究では,異なるシナリオにおけるテストのパワーパフォーマンスと計算実行時間について検討する。
論文 参考訳(メタデータ) (2022-10-11T19:23:33Z) - A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces [6.437931786032493]
Kernel Stein discrepancy (KSD) は、確率測度間の差異のカーネルベースの尺度である。
我々は、分離可能なヒルベルト空間に横たわるデータの一般性において、KSDを初めて解析する。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
論文 参考訳(メタデータ) (2022-06-09T15:04:18Z) - Are Missing Links Predictable? An Inferential Benchmark for Knowledge
Graph Completion [79.07695173192472]
InferWikiは推論能力、仮定、パターンの既存のベンチマークを改善している。
各テストサンプルは、トレーニングセットの支持データで予測可能である。
実験では,大きさや構造が異なるInferWikiの2つの設定をキュレートし,比較データセットとしてCoDExに構築プロセスを適用する。
論文 参考訳(メタデータ) (2021-08-03T09:51:15Z) - Comprehensible Counterfactual Explanation on Kolmogorov-Smirnov Test [56.5373227424117]
我々は,KSテストに失敗するテストデータに対して,反実的説明を生成する問題に対処する。
我々は、KSテストに失敗したテストセットの指数的なサブセット数を列挙し、チェックするのを避ける効率的なアルゴリズムMOCHEを開発した。
論文 参考訳(メタデータ) (2020-11-01T06:46:01Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z) - A Kernel Stein Test for Comparing Latent Variable Models [48.32146056855925]
本稿では、相対的適合性を示すカーネルベースの非パラメトリックテストを提案する。このテストの目的は、2つのモデルを比較することである。
本試験は, モデルから得られたサンプルに基づいて, 潜伏構造を利用せず, 相対的な最大平均離散性試験よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2019-07-01T07:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。