論文の概要: DeepDRK: Deep Dependency Regularized Knockoff for Feature Selection
- arxiv url: http://arxiv.org/abs/2402.17176v2
- Date: Fri, 08 Nov 2024 16:09:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 18:11:05.170962
- Title: DeepDRK: Deep Dependency Regularized Knockoff for Feature Selection
- Title(参考訳): DeepDRK: 機能選択のためのDeep Dependency Regularized Knockoff
- Authors: Hongyu Shen, Yici Yan, Zhizhen Zhao,
- Abstract要約: ディープ依存正規化ノックオフ(Deep Dependency Regularized Knockoff)とは、FDRと電力を効果的にバランスさせる分布自由なディープラーニング手法である。
マルチソース攻撃下での学習問題として,ノックオフモデルの新たな定式化を導入する。
我々のモデルは、合成、半合成、および実世界のデータセットで既存のベンチマークより優れています。
- 参考スコア(独自算出の注目度): 14.840211139848275
- License:
- Abstract: Model-X knockoff has garnered significant attention among various feature selection methods due to its guarantees for controlling the false discovery rate (FDR). Since its introduction in parametric design, knockoff techniques have evolved to handle arbitrary data distributions using deep learning-based generative models. However, we have observed limitations in the current implementations of the deep Model-X knockoff framework. Notably, the "swap property" that knockoffs require often faces challenges at the sample level, resulting in diminished selection power. To address these issues, we develop "Deep Dependency Regularized Knockoff (DeepDRK)," a distribution-free deep learning method that effectively balances FDR and power. In DeepDRK, we introduce a novel formulation of the knockoff model as a learning problem under multi-source adversarial attacks. By employing an innovative perturbation technique, we achieve lower FDR and higher power. Our model outperforms existing benchmarks across synthetic, semi-synthetic, and real-world datasets, particularly when sample sizes are small and data distributions are non-Gaussian.
- Abstract(参考訳): Model-Xのノックオフは、偽発見率(FDR)を制御することが保証されているため、様々な特徴選択方法において大きな注目を集めている。
パラメトリック設計の導入以来、ノックオフ手法は深層学習に基づく生成モデルを用いて任意のデータ分布を扱うように進化してきた。
しかし、我々は、Deep Model-Xノックオフフレームワークの現在の実装における制限を観察しました。
特に、ノックオフが要求する「スワッププロパティ」は、しばしばサンプルレベルでの課題に直面し、選択能力が低下する。
これらの課題に対処するため,FDRと電力のバランスを効果的に行う分散自由ディープラーニング手法であるDeep Dependency Regularized Knockoff (DeepDRK) を開発した。
DeepDRKでは,マルチソース攻撃下での学習問題として,ノックオフモデルの新たな定式化を導入する。
革新的な摂動技術を用いることで,FDRの低減と高出力化を実現している。
我々のモデルは、サンプルサイズが小さく、データ分布がガウス的でない場合に、合成、半合成、実世界のデータセットで既存のベンチマークを上回ります。
関連論文リスト
- Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Learning generative models for valid knockoffs using novel
multivariate-rank based statistics [12.528602250193206]
ランクエネルギー (RE) は、Monge's Optimal Transport (OT) 問題における最適写像を特徴付ける理論的結果を用いて導出される。
我々は、ソフトランクエネルギー(sRE)と呼ばれるREの変種と、ソフトランク最大平均誤差(sRMMD)と呼ばれるカーネル変種を提案する。
次に、sRMMDを用いて深いノックオフを生成し、有効なノックオフを生成するための新規かつ効果的な方法であることを示す。
論文 参考訳(メタデータ) (2021-10-29T18:51:19Z) - Deep Variational Models for Collaborative Filtering-based Recommender
Systems [63.995130144110156]
ディープラーニングは、リコメンダシステムの結果を改善するために、正確な協調フィルタリングモデルを提供する。
提案するモデルは, 深層建築の潜伏空間において, 変分概念を注入性に適用する。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
論文 参考訳(メタデータ) (2021-07-27T08:59:39Z) - Oops I Took A Gradient: Scalable Sampling for Discrete Distributions [53.3142984019796]
このアプローチは、多くの困難な設定において、ジェネリックサンプリングよりも優れていることを示す。
また,高次元離散データを用いた深部エネルギーモデルトレーニングのための改良型サンプリング器についても実演した。
論文 参考訳(メタデータ) (2021-02-08T20:08:50Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。