論文の概要: Learning Kernel Tests Without Data Splitting
- arxiv url: http://arxiv.org/abs/2006.02286v3
- Date: Mon, 19 Oct 2020 08:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:28:09.988781
- Title: Learning Kernel Tests Without Data Splitting
- Title(参考訳): データ分割なしでカーネルテストを学ぶ
- Authors: Jonas M. K\"ubler, Wittawat Jitkrittum, Bernhard Sch\"olkopf, Krikamol
Muandet
- Abstract要約: データ分割なしにハイパーパラメータの学習と全サンプルでのテストを可能にするアプローチを提案する。
我々のアプローチの試験能力は、その分割割合に関係なく、データ分割アプローチよりも経験的に大きい。
- 参考スコア(独自算出の注目度): 18.603394415852765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern large-scale kernel-based tests such as maximum mean discrepancy (MMD)
and kernelized Stein discrepancy (KSD) optimize kernel hyperparameters on a
held-out sample via data splitting to obtain the most powerful test statistics.
While data splitting results in a tractable null distribution, it suffers from
a reduction in test power due to smaller test sample size. Inspired by the
selective inference framework, we propose an approach that enables learning the
hyperparameters and testing on the full sample without data splitting. Our
approach can correctly calibrate the test in the presence of such dependency,
and yield a test threshold in closed form. At the same significance level, our
approach's test power is empirically larger than that of the data-splitting
approach, regardless of its split proportion.
- Abstract(参考訳): maximum mean discrepancy(mmd)やkernelized stein discrepancy(ksd)のような、現代の大規模カーネルベーステストは、データの分割を通じて保留サンプル上のカーネルハイパーパラメータを最適化し、最も強力なテスト統計を得る。
データ分割は、トラクタブルなヌル分布をもたらすが、テストサンプルサイズが小さいため、テストパワーの低下に悩まされる。
選択的推論フレームワークに着想を得て,データ分割なしにハイパーパラメータを学習し,全サンプルでテストできるアプローチを提案する。
このアプローチは、このような依存性が存在する場合にテストを正確に校正することができ、クローズドな形式でテストしきい値が得られる。
同じ重要性のレベルでは、我々のアプローチのテスト能力は、その分割割合に関係なく、データ分割アプローチよりも経験的に大きい。
関連論文リスト
- Learning Deep Kernels for Non-Parametric Independence Testing [13.842061060076004]
ヒルベルト・シュミット独立基準(英: Hilbert-Schmidt Independence Criterion、HSIC)は、確率変数間の依存を非パラメトリックに検出するための強力なツールである。
本稿では,テストパワーの推定値の最大化に基づいて,HSICベースの独立性テストで使用されるカーネルを選択する手法を提案する。
論文 参考訳(メタデータ) (2024-09-10T22:18:07Z) - Robust Kernel Hypothesis Testing under Data Corruption [6.430258446597413]
データ破損下での頑健な置換テストを構築するための2つの一般的な方法を提案する。
最小限の条件下での力の一貫性を証明する。
これは、潜在的な敵攻撃を伴う現実世界のアプリケーションに対する仮説テストの実践的な展開に寄与する。
論文 参考訳(メタデータ) (2024-05-30T10:23:16Z) - Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - MMD-FUSE: Learning and Combining Kernels for Two-Sample Testing Without
Data Splitting [28.59390881834003]
最大平均離散性(MMD)に基づく2サンプルテストのパワーを最大化する新しい統計法を提案する。
これらのカーネルは、データ分割を避けるために、よく校正されたテストで、データ依存だが置換に依存しない方法でどのように選択できるかを示す。
我々は,合成低次元および実世界の高次元データに対するMDD-FUSEテストの適用性を強調し,その性能を現状のカーネルテストと比較した。
論文 参考訳(メタデータ) (2023-06-14T23:13:03Z) - Sequential Predictive Two-Sample and Independence Testing [114.4130718687858]
逐次的非パラメトリック2サンプルテストと独立テストの問題点について検討する。
私たちは賭けによる(非パラメトリックな)テストの原則に基づいています。
論文 参考訳(メタデータ) (2023-04-29T01:30:33Z) - Spectral Regularized Kernel Two-Sample Tests [7.915420897195129]
MMD (maximum mean discrepancy) two-sample test to be optimal to the terms of the separation boundary in the Hellinger distance。
スペクトル正則化に基づくMDD試験の修正を提案し,MMD試験よりも分離境界が小さく,最小限の試験が最適であることを証明した。
その結果,テストしきい値がエレガントに選択されるテストの置換変種が,サンプルの置換によって決定されることがわかった。
論文 参考訳(メタデータ) (2022-12-19T00:42:21Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - A Data-Driven Approach to Robust Hypothesis Testing Using Sinkhorn
Uncertainty Sets [12.061662346636645]
シンクホーン距離を用いた試料から, 実験分布を中心とした分布不確実性集合に対する最悪の検出法を求める。
ワッサーシュタインのロバスト試験と比較すると、対応する最も好ましい分布はトレーニングサンプルを超えてサポートされ、より柔軟な検出器を提供する。
論文 参考訳(メタデータ) (2022-02-09T03:26:15Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。