論文の概要: Learning Deep Kernels for Non-Parametric Two-Sample Tests
- arxiv url: http://arxiv.org/abs/2002.09116v3
- Date: Thu, 14 Jan 2021 05:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 01:02:44.422699
- Title: Learning Deep Kernels for Non-Parametric Two-Sample Tests
- Title(参考訳): 非パラメトリック2サンプルテストのためのディープカーネルの学習
- Authors: Feng Liu, Wenkai Xu, Jie Lu, Guangquan Zhang, Arthur Gretton, Danica
J. Sutherland
- Abstract要約: 2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
- 参考スコア(独自算出の注目度): 50.92621794426821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a class of kernel-based two-sample tests, which aim to determine
whether two sets of samples are drawn from the same distribution. Our tests are
constructed from kernels parameterized by deep neural nets, trained to maximize
test power. These tests adapt to variations in distribution smoothness and
shape over space, and are especially suited to high dimensions and complex
data. By contrast, the simpler kernels used in prior kernel testing work are
spatially homogeneous, and adaptive only in lengthscale. We explain how this
scheme includes popular classifier-based two-sample tests as a special case,
but improves on them in general. We provide the first proof of consistency for
the proposed adaptation method, which applies both to kernels on deep features
and to simpler radial basis kernels or multiple kernel learning. In
experiments, we establish the superior performance of our deep kernels in
hypothesis testing on benchmark and real-world data. The code of our
deep-kernel-based two sample tests is available at
https://github.com/fengliu90/DK-for-TST.
- Abstract(参考訳): 2つのサンプルセットが同一分布から引き出されたかどうかを判定するカーネルベースの2つのサンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
これらの試験は空間上の分布の滑らかさと形状の変化に適応し、特に高次元や複雑なデータに適している。
対照的に、以前のカーネルテストで使われた単純なカーネルは空間的に均質であり、長さスケールでしか適応しない。
本手法は, 一般的な分類器を用いた2サンプル試験を特別な事例として含むが, 一般に改良されている。
提案手法の整合性の最初の証明として,より深い特徴を持つカーネルと,より単純なラジアルベースカーネル,あるいはマルチカーネル学習の両方に適用する。
実験では,ベンチマークおよび実世界のデータを用いた仮説テストにおいて,ディープカーネルの優れた性能を確立する。
ディープカーネルベースの2つのサンプルテストのコードはhttps://github.com/fengliu90/DK-for-TSTで公開されています。
関連論文リスト
- Collaborative non-parametric two-sample testing [55.98760097296213]
目標は、null仮説の$p_v = q_v$が拒否されるノードを特定することである。
グラフ構造を効率的に活用する非パラメトリックコラボレーティブ2サンプルテスト(CTST)フレームワークを提案する。
提案手法は,f-divergence Estimation, Kernel Methods, Multitask Learningなどの要素を統合する。
論文 参考訳(メタデータ) (2024-02-08T14:43:56Z) - MMD-FUSE: Learning and Combining Kernels for Two-Sample Testing Without
Data Splitting [28.59390881834003]
最大平均離散性(MMD)に基づく2サンプルテストのパワーを最大化する新しい統計法を提案する。
これらのカーネルは、データ分割を避けるために、よく校正されたテストで、データ依存だが置換に依存しない方法でどのように選択できるかを示す。
我々は,合成低次元および実世界の高次元データに対するMDD-FUSEテストの適用性を強調し,その性能を現状のカーネルテストと比較した。
論文 参考訳(メタデータ) (2023-06-14T23:13:03Z) - Boosting the Power of Kernel Two-Sample Tests [4.07125466598411]
最大平均誤差(MMD)に基づくカーネル2サンプルテストは、一般的な距離空間上の2つの分布の違いを検出する最も一般的な方法の1つである。
マハラノビス距離を用いて,複数のカーネル上でMDD推定値を組み合わせることで,カーネルテストのパワーを高める手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Variational Autoencoder Kernel Interpretation and Selection for
Classification [59.30734371401315]
本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
論文 参考訳(メタデータ) (2022-09-10T17:22:53Z) - MMD Aggregated Two-Sample Test [31.116276769013204]
平均最大離散性(MMD)に基づく2つの新しい非パラメトリック2サンプルカーネルテストを提案する。
まず、固定化されたカーネルに対して、置換またはワイルドブートストラップを用いてMDDテストを構築し、テストしきい値を決定するために2つの一般的な数値処理を行う。
本研究では,この実験が非漸近的にレベルを制御し,反復対数項までソボレフ球の最小値を達成することを証明した。
論文 参考訳(メタデータ) (2021-10-28T12:47:49Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Meta Two-Sample Testing: Learning Kernels for Testing with Limited Data [21.596650236820377]
メタ2サンプルテスト(M2ST)の問題点について紹介する。
M2STは、関連するタスクの補助的データを利用して、新しいターゲットタスクの強力なテストを素早く特定できるアルゴリズムを見つけることを目的としている。
提案するメタテスト方式は,少ない観察結果から直接,学習カーネルベースのテストより優れているという理論的正当性および実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-06-14T17:52:50Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - An Optimal Witness Function for Two-Sample Testing [13.159512679346685]
証人2サンプルテスト(WiTS)と呼ばれる1次元証人関数に基づくデータ依存テスト統計法を提案する。
特性カーネルに基づく WiTS テストは,任意の固定された代替品に対して一貫したものであることを示す。
論文 参考訳(メタデータ) (2021-02-10T17:13:21Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。