論文の概要: DUAL: Learning Diverse Kernels for Aggregated Two-sample and Independence Testing
- arxiv url: http://arxiv.org/abs/2510.11140v1
- Date: Mon, 13 Oct 2025 08:30:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.267388
- Title: DUAL: Learning Diverse Kernels for Aggregated Two-sample and Independence Testing
- Title(参考訳): DUAL:アグリゲーション2サンプルと独立テストのための異種カーネルの学習
- Authors: Zhijian Zhou, Xunye Tian, Liuhua Peng, Chao Lei, Antonin Schrab, Danica J. Sutherland, Feng Liu,
- Abstract要約: 本稿では,異なるカーネル間の共分散に基づいて,カーネルの多様性を明示的に組み込んだ集計統計モデルを提案する。
これは、トレーニングフェーズの情報を活用して、個々のパフォーマンスの高いカーネルを選択する、選択推論によるテストフレームワークのモチベーションである。
- 参考スコア(独自算出の注目度): 21.083713063070586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To adapt kernel two-sample and independence testing to complex structured data, aggregation of multiple kernels is frequently employed to boost testing power compared to single-kernel tests. However, we observe a phenomenon that directly maximizing multiple kernel-based statistics may result in highly similar kernels that capture highly overlapping information, limiting the effectiveness of aggregation. To address this, we propose an aggregated statistic that explicitly incorporates kernel diversity based on the covariance between different kernels. Moreover, we identify a fundamental challenge: a trade-off between the diversity among kernels and the test power of individual kernels, i.e., the selected kernels should be both effective and diverse. This motivates a testing framework with selection inference, which leverages information from the training phase to select kernels with strong individual performance from the learned diverse kernel pool. We provide rigorous theoretical statements and proofs to show the consistency on the test power and control of Type-I error, along with asymptotic analysis of the proposed statistics. Lastly, we conducted extensive empirical experiments demonstrating the superior performance of our proposed approach across various benchmarks for both two-sample and independence testing.
- Abstract(参考訳): 複雑な構造化データにカーネルの2サンプルと独立性テストを適用するために、シングルカーネルテストと比較してテスト能力を高めるために複数のカーネルのアグリゲーションが頻繁に使用される。
しかし、複数のカーネルに基づく統計を直接的に最大化すると、非常に類似したカーネルが重なり合う情報をキャプチャし、アグリゲーションの有効性を制限する現象が観察される。
そこで本研究では,異なるカーネル間の共分散に基づいて,カーネルの多様性を明確に組み込んだ集計統計モデルを提案する。
さらに、カーネル間の多様性と個々のカーネルのテストパワーとの間のトレードオフ、すなわち、選択されたカーネルは、効果的かつ多様であるべきである、という根本的な課題も特定する。
これは、トレーニングフェーズの情報を活用して、学習した多様なカーネルプールから、個々のパフォーマンスの強いカーネルを選択するテストフレームワークを、選択推論で動機付ける。
提案する統計の漸近解析とともに, テストパワーとType-Iエラーの制御の整合性を示すための厳密な理論文と証明を提供する。
最後に,2サンプル試験と独立試験の両方において,様々なベンチマークで提案手法の優れた性能を示す実験を行った。
関連論文リスト
- A Unified View of Optimal Kernel Hypothesis Testing [3.1727619150610837]
本稿では,MDD の2サンプル,HSIC 独立性,KSD に適したフレームワーク間の最適なカーネル仮説テストの統一的な視点を提供する。
カーネルの最適分離率と$L2$のメトリクスを2つの適応的なカーネル選択法で示す。
論文 参考訳(メタデータ) (2025-03-10T09:06:40Z) - Learning Representations for Independence Testing [13.842061060076004]
本稿では, 相互情報の変動推定器を用いて, 有限サンプル妥当性を持つ強力なテストを構築する方法を示す。
第2に,Hilbert-Schmidt Independence Criterion(HSIC)に基づくこれらの変分的相互情報ベーステストとテストの密接な関係を確立する。
最後に、統計量自体を最大化する表現を選択するのではなく、テストのパワーを最大化する表現を選択する方法を示す。
論文 参考訳(メタデータ) (2024-09-10T22:18:07Z) - Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - Boosting the Power of Kernel Two-Sample Tests [4.07125466598411]
最大平均誤差(MMD)に基づくカーネル2サンプルテストは、一般的な距離空間上の2つの分布の違いを検出する最も一般的な方法の1つである。
マハラノビス距離を用いて,複数のカーネル上でMDD推定値を組み合わせることで,カーネルテストのパワーを高める手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Variational Autoencoder Kernel Interpretation and Selection for
Classification [59.30734371401315]
本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
論文 参考訳(メタデータ) (2022-09-10T17:22:53Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。