論文の概要: Learning Kernel Tests Without Data Splitting
- arxiv url: http://arxiv.org/abs/2006.02286v3
- Date: Mon, 19 Oct 2020 08:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:28:09.988781
- Title: Learning Kernel Tests Without Data Splitting
- Title(参考訳): データ分割なしでカーネルテストを学ぶ
- Authors: Jonas M. K\"ubler, Wittawat Jitkrittum, Bernhard Sch\"olkopf, Krikamol
Muandet
- Abstract要約: データ分割なしにハイパーパラメータの学習と全サンプルでのテストを可能にするアプローチを提案する。
我々のアプローチの試験能力は、その分割割合に関係なく、データ分割アプローチよりも経験的に大きい。
- 参考スコア(独自算出の注目度): 18.603394415852765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern large-scale kernel-based tests such as maximum mean discrepancy (MMD)
and kernelized Stein discrepancy (KSD) optimize kernel hyperparameters on a
held-out sample via data splitting to obtain the most powerful test statistics.
While data splitting results in a tractable null distribution, it suffers from
a reduction in test power due to smaller test sample size. Inspired by the
selective inference framework, we propose an approach that enables learning the
hyperparameters and testing on the full sample without data splitting. Our
approach can correctly calibrate the test in the presence of such dependency,
and yield a test threshold in closed form. At the same significance level, our
approach's test power is empirically larger than that of the data-splitting
approach, regardless of its split proportion.
- Abstract(参考訳): maximum mean discrepancy(mmd)やkernelized stein discrepancy(ksd)のような、現代の大規模カーネルベーステストは、データの分割を通じて保留サンプル上のカーネルハイパーパラメータを最適化し、最も強力なテスト統計を得る。
データ分割は、トラクタブルなヌル分布をもたらすが、テストサンプルサイズが小さいため、テストパワーの低下に悩まされる。
選択的推論フレームワークに着想を得て,データ分割なしにハイパーパラメータを学習し,全サンプルでテストできるアプローチを提案する。
このアプローチは、このような依存性が存在する場合にテストを正確に校正することができ、クローズドな形式でテストしきい値が得られる。
同じ重要性のレベルでは、我々のアプローチのテスト能力は、その分割割合に関係なく、データ分割アプローチよりも経験的に大きい。
関連論文リスト
- Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - MMD-FUSE: Learning and Combining Kernels for Two-Sample Testing Without
Data Splitting [28.59390881834003]
最大平均離散性(MMD)に基づく2サンプルテストのパワーを最大化する新しい統計法を提案する。
これらのカーネルは、データ分割を避けるために、よく校正されたテストで、データ依存だが置換に依存しない方法でどのように選択できるかを示す。
我々は,合成低次元および実世界の高次元データに対するMDD-FUSEテストの適用性を強調し,その性能を現状のカーネルテストと比較した。
論文 参考訳(メタデータ) (2023-06-14T23:13:03Z) - Sequential Predictive Two-Sample and Independence Testing [114.4130718687858]
逐次的非パラメトリック2サンプルテストと独立テストの問題点について検討する。
私たちは賭けによる(非パラメトリックな)テストの原則に基づいています。
論文 参考訳(メタデータ) (2023-04-29T01:30:33Z) - Boosting the Power of Kernel Two-Sample Tests [7.1795069620810805]
マハラノビス距離を用いて、複数のカーネル上でMDD推定値を組み合わせることで、カーネルテストのパワーを高める方法を提案する。
結果として得られるテストは普遍的に一貫したものであり、カーネル/バンド幅の拒絶に対して集約することで得られるので、有限サンプルにおいて幅広い代替品を検出するのにより強力である。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Spectral Regularized Kernel Two-Sample Tests [7.122170439221738]
MMD (maximum mean discrepancy) two-sample test は,Hellinger 距離で測定された分離境界において最適ではないことを示す。
本稿では、正規化パラメータを選択するためのデータ駆動型戦略を含む、上記のテストの適応バージョンを提案する。
この結果から,テストしきい値がサンプルの置換によって選択されるテストの置換変種について検討した。
論文 参考訳(メタデータ) (2022-12-19T00:42:21Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Targeted Separation and Convergence with Kernel Discrepancies [66.48817218787006]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - A Data-Driven Approach to Robust Hypothesis Testing Using Sinkhorn
Uncertainty Sets [12.061662346636645]
シンクホーン距離を用いた試料から, 実験分布を中心とした分布不確実性集合に対する最悪の検出法を求める。
ワッサーシュタインのロバスト試験と比較すると、対応する最も好ましい分布はトレーニングサンプルを超えてサポートされ、より柔軟な検出器を提供する。
論文 参考訳(メタデータ) (2022-02-09T03:26:15Z) - KSD Aggregated Goodness-of-fit Test [38.45086141837479]
我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
我々は、KSDAggのパワーに関する漸近的でない保証を提供する。
KSDAggは、他の最先端のKSDベースの適合性試験方法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-02T00:33:09Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。