論文の概要: MMD Aggregated Two-Sample Test
- arxiv url: http://arxiv.org/abs/2110.15073v1
- Date: Thu, 28 Oct 2021 12:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:33:01.350516
- Title: MMD Aggregated Two-Sample Test
- Title(参考訳): MMD集積2サンプル試験
- Authors: Antonin Schrab and Ilmun Kim and M\'elisande Albert and B\'eatrice
Laurent and Benjamin Guedj and Arthur Gretton
- Abstract要約: 我々は,MMD(Maximum Mean Discrepancy)に基づく新しい非漸近的2サンプルテストを提案する。
異なるカーネル帯域幅でテストを集約することで構築される。
集約テストがソボレフ球に対して極小適応であることを証明する。
- 参考スコア(独自算出の注目度): 19.727888046120675
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a novel nonparametric two-sample test based on the Maximum Mean
Discrepancy (MMD), which is constructed by aggregating tests with different
kernel bandwidths. This aggregation procedure, called MMDAgg, ensures that test
power is maximised over the collection of kernels used, without requiring
held-out data for kernel selection (which results in a loss of test power), or
arbitrary kernel choices such as the median heuristic. We work in the
non-asymptotic framework, and prove that our aggregated test is minimax
adaptive over Sobolev balls. Our guarantees are not restricted to a specific
kernel, but hold for any product of one-dimensional translation invariant
characteristic kernels which are absolutely and square integrable. Moreover,
our results apply for popular numerical procedures to determine the test
threshold, namely permutations and the wild bootstrap. Through numerical
experiments on both synthetic and real-world datasets, we demonstrate that
MMDAgg outperforms alternative state-of-the-art approaches to MMD kernel
adaptation for two-sample testing.
- Abstract(参考訳): 本稿では,カーネル帯域幅の異なるテストを集約して構築したMMD(Maximum Mean Discrepancy)に基づく新しい非パラメトリック2サンプルテストを提案する。
このアグリゲーション手順はMMDAggと呼ばれ、テストパワーはカーネル選択(テストパワーの喪失につながる)や中央ヒューリスティックのような任意のカーネル選択のために保持データを必要とすることなく、使用するカーネルの集合に対して最大化される。
我々は非漸近的枠組みで働き、集合テストがソボレフ球よりもminimax適応であることを証明する。
我々の保証は特定のカーネルに限らず、絶対かつ正方形可積分な1次元の変換不変特性核の任意の積に対して成り立つ。
さらに,本研究の結果は,テストしきい値,すなわち順列とワイルドブートストラップを決定するための一般的な数値手順に適用した。
合成および実世界の両方のデータセットに関する数値実験により、MMDAggは2サンプルテストのためのMDDカーネル適応に対する代替の最先端アプローチよりも優れていることを示した。
関連論文リスト
- Collaborative non-parametric two-sample testing [55.98760097296213]
目標は、null仮説の$p_v = q_v$が拒否されるノードを特定することである。
グラフ構造を効率的に活用する非パラメトリックコラボレーティブ2サンプルテスト(CTST)フレームワークを提案する。
提案手法は,f-divergence Estimation, Kernel Methods, Multitask Learningなどの要素を統合する。
論文 参考訳(メタデータ) (2024-02-08T14:43:56Z) - MMD-FUSE: Learning and Combining Kernels for Two-Sample Testing Without
Data Splitting [28.59390881834003]
最大平均離散性(MMD)に基づく2サンプルテストのパワーを最大化する新しい統計法を提案する。
これらのカーネルは、データ分割を避けるために、よく校正されたテストで、データ依存だが置換に依存しない方法でどのように選択できるかを示す。
我々は,合成低次元および実世界の高次元データに対するMDD-FUSEテストの適用性を強調し,その性能を現状のカーネルテストと比較した。
論文 参考訳(メタデータ) (2023-06-14T23:13:03Z) - Boosting the Power of Kernel Two-Sample Tests [4.07125466598411]
最大平均誤差(MMD)に基づくカーネル2サンプルテストは、一般的な距離空間上の2つの分布の違いを検出する最も一般的な方法の1つである。
マハラノビス距離を用いて,複数のカーネル上でMDD推定値を組み合わせることで,カーネルテストのパワーを高める手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Spectral Regularized Kernel Two-Sample Tests [7.915420897195129]
MMD (maximum mean discrepancy) two-sample test to be optimal to the terms of the separation boundary in the Hellinger distance。
スペクトル正則化に基づくMDD試験の修正を提案し,MMD試験よりも分離境界が小さく,最小限の試験が最適であることを証明した。
その結果,テストしきい値がエレガントに選択されるテストの置換変種が,サンプルの置換によって決定されることがわかった。
論文 参考訳(メタデータ) (2022-12-19T00:42:21Z) - A Permutation-free Kernel Two-Sample Test [36.50719125230106]
サンプル分割と学生化に基づく2次時間MDDテスト統計法を提案する。
大きなサンプルサイズの場合、我々の新しいクロスMMDはMDDよりも大幅にスピードアップし、わずかに電力を消費するだけである。
論文 参考訳(メタデータ) (2022-11-27T18:15:52Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - KSD Aggregated Goodness-of-fit Test [38.45086141837479]
我々は、異なるカーネルで複数のテストを集約するKSDAggと呼ばれるテストを構築する戦略を導入する。
我々は、KSDAggのパワーに関する漸近的でない保証を提供する。
KSDAggは、他の最先端のKSDベースの適合性試験方法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-02T00:33:09Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Maximum Mean Discrepancy Test is Aware of Adversarial Attacks [122.51040127438324]
最大平均誤差(MMD)テストは、原則として2つのデータセット間の分布誤差を検出できる。
MMD検査は敵の攻撃に気づいていないことが示されている。
論文 参考訳(メタデータ) (2020-10-22T03:42:12Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。