論文の概要: Aggregation of Multiple Knockoffs
- arxiv url: http://arxiv.org/abs/2002.09269v2
- Date: Thu, 25 Jun 2020 14:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 01:45:46.077634
- Title: Aggregation of Multiple Knockoffs
- Title(参考訳): 多重ノックオフの凝集
- Authors: Tuan-Binh Nguyen, J\'er\^ome-Alexis Chevalier, Bertrand Thirion,
Sylvain Arlot
- Abstract要約: AKO (Aggregation of Multiple Knockoffs) は、Knockoffベースの推論のランダムな性質に固有の不安定性に対処する。
AKOは、False Discovery Rateコントロールの保証を維持しながら、元のKnockoffアルゴリズムと比較して安定性とパワーの両方を改善している。
我々は、新しい推論手順を提供し、そのコア特性を証明し、その利点を合成および実際のデータセットに関する一連の実験で実証する。
- 参考スコア(独自算出の注目度): 33.79737923562146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an extension of the Knockoff Inference procedure, introduced by
Barber and Candes (2015). This new method, called Aggregation of Multiple
Knockoffs (AKO), addresses the instability inherent to the random nature of
Knockoff-based inference. Specifically, AKO improves both the stability and
power compared with the original Knockoff algorithm while still maintaining
guarantees for False Discovery Rate control. We provide a new inference
procedure, prove its core properties, and demonstrate its benefits in a set of
experiments on synthetic and real datasets.
- Abstract(参考訳): 我々は,Barber and Candes (2015) によって導入された Knockoff Inference 手順の拡張を開発する。
AKO(Aggregation of Multiple Knockoffs)と呼ばれるこの新しい手法は、Knockoffベースの推論のランダムな性質に固有の不安定性に対処する。
具体的には、AKOはFalse Discovery Rateコントロールの保証を維持しながら、元のKnockoffアルゴリズムと比較して安定性とパワーの両方を改善している。
我々は、新しい推論手順を提供し、そのコア特性を証明し、その利点を合成および実際のデータセットに関する一連の実験で実証する。
関連論文リスト
- DeepDRK: Deep Dependency Regularized Knockoff for Feature Selection [14.840211139848275]
ディープ依存正規化ノックオフ(Deep Dependency Regularized Knockoff)とは、FDRと電力を効果的にバランスさせる分布自由なディープラーニング手法である。
マルチソース攻撃下での学習問題として,ノックオフモデルの新たな定式化を導入する。
我々のモデルは、合成、半合成、および実世界のデータセットで既存のベンチマークより優れています。
論文 参考訳(メタデータ) (2024-02-27T03:24:54Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - ARK: Robust Knockoffs Inference with Coupling [7.288274235236948]
本稿では,モデル-Xノックオフフレームワークの,不特定あるいは推定された特徴分布に対するロバスト性について検討する。
鍵となる手法は、近似ノックオフ手順とモデル-Xノックオフ手順を結合して、これらの2つのプロシージャのランダム変数が実現時に近いようにすることである。
このような結合モデル-Xノックオフ手順が存在する場合、その近似ノックオフ手順は、目標レベルのFDRまたは$k$-FWER制御を達成することができる。
論文 参考訳(メタデータ) (2023-07-10T08:01:59Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Variable Selection with the Knockoffs: Composite Null Hypotheses [2.725698729450241]
我々は、ノックオフ手順の理論を合成ヌル仮説を用いたテストに拡張する。
主な技術的課題は、任意の設計から依存した特徴と組み合わせて合成ヌルを扱うことである。
論文 参考訳(メタデータ) (2022-03-06T01:40:35Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Learning generative models for valid knockoffs using novel
multivariate-rank based statistics [12.528602250193206]
ランクエネルギー (RE) は、Monge's Optimal Transport (OT) 問題における最適写像を特徴付ける理論的結果を用いて導出される。
我々は、ソフトランクエネルギー(sRE)と呼ばれるREの変種と、ソフトランク最大平均誤差(sRMMD)と呼ばれるカーネル変種を提案する。
次に、sRMMDを用いて深いノックオフを生成し、有効なノックオフを生成するための新規かつ効果的な方法であることを示す。
論文 参考訳(メタデータ) (2021-10-29T18:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。