論文の概要: Learning Deep Kernels for Non-Parametric Independence Testing
- arxiv url: http://arxiv.org/abs/2409.06890v1
- Date: Tue, 10 Sep 2024 22:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 16:16:15.045746
- Title: Learning Deep Kernels for Non-Parametric Independence Testing
- Title(参考訳): 非パラメトリック独立試験のためのディープカーネルの学習
- Authors: Nathaniel Xu, Feng Liu, Danica J. Sutherland,
- Abstract要約: ヒルベルト・シュミット独立基準(英: Hilbert-Schmidt Independence Criterion、HSIC)は、確率変数間の依存を非パラメトリックに検出するための強力なツールである。
本稿では,テストパワーの推定値の最大化に基づいて,HSICベースの独立性テストで使用されるカーネルを選択する手法を提案する。
- 参考スコア(独自算出の注目度): 13.842061060076004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Hilbert-Schmidt Independence Criterion (HSIC) is a powerful tool for nonparametric detection of dependence between random variables. It crucially depends, however, on the selection of reasonable kernels; commonly-used choices like the Gaussian kernel, or the kernel that yields the distance covariance, are sufficient only for amply sized samples from data distributions with relatively simple forms of dependence. We propose a scheme for selecting the kernels used in an HSIC-based independence test, based on maximizing an estimate of the asymptotic test power. We prove that maximizing this estimate indeed approximately maximizes the true power of the test, and demonstrate that our learned kernels can identify forms of structured dependence between random variables in various experiments.
- Abstract(参考訳): ヒルベルト・シュミット独立基準(英: Hilbert-Schmidt Independence Criterion、HSIC)は、確率変数間の依存を非パラメトリックに検出するための強力なツールである。
ガウス核や距離共分散をもたらす核のような一般的に用いられる選択は、比較的単純な形式の依存を持つデータ分布からのアンプサイズの標本に対してのみ十分である。
本稿では, HSIC による独立性テストで使用されるカーネルを, 漸近性テスト能力の推定値の最大化に基づいて選択する手法を提案する。
この推定値の最大化がテストの真のパワーをほぼ最大化することを証明し、学習したカーネルが様々な実験においてランダム変数間の構造的依存の形式を識別できることを実証する。
関連論文リスト
- Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - Estimation of mutual information via quantum kernel method [0.0]
相互情報(MI)の推定は,複数の確率変数間の関係を非線形相関で調査する上で重要な役割を担っている。
本稿では,量子カーネルを用いた相互情報推定手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T00:53:16Z) - Boosting the Power of Kernel Two-Sample Tests [4.07125466598411]
最大平均誤差(MMD)に基づくカーネル2サンプルテストは、一般的な距離空間上の2つの分布の違いを検出する最も一般的な方法の1つである。
マハラノビス距離を用いて,複数のカーネル上でMDD推定値を組み合わせることで,カーネルテストのパワーを高める手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Nystr\"om $M$-Hilbert-Schmidt Independence Criterion [0.0]
カーネルをユビキタスにする主な特徴は、 (i) 設計された領域の数、 (ii) カーネルに関連する関数クラスのヒルベルト構造、 (iii) 情報を失うことなく確率分布を表現する能力である。
我々は、Mge 2$のケースを処理し、その一貫性を証明し、その適用性を実証する代替のNystr"omベースのHSIC推定器を提案する。
論文 参考訳(メタデータ) (2023-02-20T11:51:58Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Variational Autoencoder Kernel Interpretation and Selection for
Classification [59.30734371401315]
本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
論文 参考訳(メタデータ) (2022-09-10T17:22:53Z) - A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces [6.437931786032493]
Kernel Stein discrepancy (KSD) は、確率測度間の差異のカーネルベースの尺度である。
我々は、分離可能なヒルベルト空間に横たわるデータの一般性において、KSDを初めて解析する。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
論文 参考訳(メタデータ) (2022-06-09T15:04:18Z) - Nonparametric Conditional Local Independence Testing [69.31200003384122]
条件付き局所独立は、連続的な時間プロセス間の独立関係である。
条件付き地域独立の非パラメトリックテストは行われていない。
二重機械学習に基づく非パラメトリックテストを提案する。
論文 参考訳(メタデータ) (2022-03-25T10:31:02Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Learning Kernel Tests Without Data Splitting [18.603394415852765]
データ分割なしにハイパーパラメータの学習と全サンプルでのテストを可能にするアプローチを提案する。
我々のアプローチの試験能力は、その分割割合に関係なく、データ分割アプローチよりも経験的に大きい。
論文 参考訳(メタデータ) (2020-06-03T14:07:39Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。