論文の概要: Variable Selection for Kernel Two-Sample Tests
- arxiv url: http://arxiv.org/abs/2302.07415v1
- Date: Wed, 15 Feb 2023 00:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 16:11:42.173872
- Title: Variable Selection for Kernel Two-Sample Tests
- Title(参考訳): カーネル2サンプルテストの可変選択
- Authors: Jie Wang and Santanu S. Dey and Yao Xie
- Abstract要約: この問題を解決するために,カーネルの最大平均整合性(MMD)フレームワークを提案する。
線形型、二次型、ガウス型のカーネル関数に対する同値な混合整数計画法を導出する。
- 参考スコア(独自算出の注目度): 13.003010806504271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the variable selection problem for two-sample tests, aiming to
select the most informative features to best distinguish samples from two
groups. We propose a kernel maximum mean discrepancy (MMD) framework to solve
this problem and further derive its equivalent mixed-integer programming
formulations for linear, quadratic, and Gaussian types of kernel functions. Our
proposed framework admits advantages of both computational efficiency and nice
statistical properties: (i) A closed-form solution is provided for the linear
kernel case. Despite NP-hardness, we provide an exact mixed-integer
semi-definite programming formulation for the quadratic kernel case, which
further motivates the development of exact and approximation algorithms. We
propose a convex-concave procedure that finds critical points for the Gaussian
kernel case. (ii) We provide non-asymptotic uncertainty quantification of our
proposed formulation under null and alternative scenarios. Experimental results
demonstrate good performance of our framework.
- Abstract(参考訳): サンプルを2つのグループと区別する上で,最も有用な特徴を選択することを目的とした2サンプルテストの変数選択問題を考察する。
この問題を解決するためにカーネル最大平均差分法(MMD)フレームワークを提案し、さらに線形、二次、ガウス型のカーネル関数に対して等価な混合整数計画法を導出する。
提案フレームワークは計算効率と優れた統計特性の両方の利点を認めている。
i) 線形カーネルケースに対して閉形式解が提供される。
np難易度にもかかわらず、二次カーネルケースに対する完全混合整数半定義型プログラミング式を提供し、さらに、完全および近似アルゴリズムの開発を動機付ける。
本稿では,ガウス核の場合の臨界点を求める凸凹法を提案する。
(2)Nullおよび代替シナリオの下で提案した定式化の漸近的でない不確実性定量化を提供する。
実験の結果,フレームワークの性能は良好であった。
関連論文リスト
- Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - Variable Selection in Maximum Mean Discrepancy for Interpretable
Distribution Comparison [9.12501922682336]
2サンプルテストは、同じ分布から2つのデータセットが生成されるかどうかを決定する。
本稿では,2サンプルテストにおける変数選択について検討し,2つの分布の相違の原因となる変数を同定する。
論文 参考訳(メタデータ) (2023-11-02T18:38:39Z) - MMD-FUSE: Learning and Combining Kernels for Two-Sample Testing Without
Data Splitting [28.59390881834003]
最大平均離散性(MMD)に基づく2サンプルテストのパワーを最大化する新しい統計法を提案する。
これらのカーネルは、データ分割を避けるために、よく校正されたテストで、データ依存だが置換に依存しない方法でどのように選択できるかを示す。
我々は,合成低次元および実世界の高次元データに対するMDD-FUSEテストの適用性を強調し,その性能を現状のカーネルテストと比較した。
論文 参考訳(メタデータ) (2023-06-14T23:13:03Z) - Boosting the Power of Kernel Two-Sample Tests [4.07125466598411]
最大平均誤差(MMD)に基づくカーネル2サンプルテストは、一般的な距離空間上の2つの分布の違いを検出する最も一般的な方法の1つである。
マハラノビス距離を用いて,複数のカーネル上でMDD推定値を組み合わせることで,カーネルテストのパワーを高める手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T14:14:30Z) - Sharp Variance-Dependent Bounds in Reinforcement Learning: Best of Both
Worlds in Stochastic and Deterministic Environments [48.96971760679639]
マルコフ決定過程(MDP)の分散依存的後悔境界について検討する。
環境の微細な分散特性を特徴付けるための2つの新しい環境規範を提案する。
モデルに基づく手法では、MVPアルゴリズムの変種を設計する。
特に、この境界は極小かつ決定論的 MDP に対して同時に最適である。
論文 参考訳(メタデータ) (2023-01-31T06:54:06Z) - Spectral Regularized Kernel Two-Sample Tests [7.915420897195129]
MMD (maximum mean discrepancy) two-sample test to be optimal to the terms of the separation boundary in the Hellinger distance。
スペクトル正則化に基づくMDD試験の修正を提案し,MMD試験よりも分離境界が小さく,最小限の試験が最適であることを証明した。
その結果,テストしきい値がエレガントに選択されるテストの置換変種が,サンプルの置換によって決定されることがわかった。
論文 参考訳(メタデータ) (2022-12-19T00:42:21Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Greedy Search Algorithms for Unsupervised Variable Selection: A
Comparative Study [3.4888132404740797]
本稿では,非監視変数選択に基づく次元還元について述べる。
本稿では,7つの非監視勾配変数選択アルゴリズムの臨界評価について述べる。
本稿では,FSCA(Forward selection component analysis)アルゴリズムで説明された分散の遅延実装を初めて導入し,評価する。
論文 参考訳(メタデータ) (2021-03-03T21:10:26Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。