論文の概要: Deep Direct Likelihood Knockoffs
- arxiv url: http://arxiv.org/abs/2007.15835v1
- Date: Fri, 31 Jul 2020 04:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:11:42.506090
- Title: Deep Direct Likelihood Knockoffs
- Title(参考訳): 深い直接的可能性のノックオフ
- Authors: Mukund Sudarshan, Wesley Tansey, Rajesh Ranganath
- Abstract要約: 科学的領域では、科学者は予測を行うのにどの特徴が実際に重要なのかを知りたがることが多い。
Model-Xのノックオフにより、FDRを制御して重要な特徴を発見することができる。
我々は、ノックオフスワップ特性がもたらすKLの発散を直接最小化するDeep Direct Likelihood Knockoffs (DDLK) を開発した。
- 参考スコア(独自算出の注目度): 28.261829940133484
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predictive modeling often uses black box machine learning methods, such as
deep neural networks, to achieve state-of-the-art performance. In scientific
domains, the scientist often wishes to discover which features are actually
important for making the predictions. These discoveries may lead to costly
follow-up experiments and as such it is important that the error rate on
discoveries is not too high. Model-X knockoffs enable important features to be
discovered with control of the FDR. However, knockoffs require rich generative
models capable of accurately modeling the knockoff features while ensuring they
obey the so-called "swap" property. We develop Deep Direct Likelihood Knockoffs
(DDLK), which directly minimizes the KL divergence implied by the knockoff swap
property. DDLK consists of two stages: it first maximizes the explicit
likelihood of the features, then minimizes the KL divergence between the joint
distribution of features and knockoffs and any swap between them. To ensure
that the generated knockoffs are valid under any possible swap, DDLK uses the
Gumbel-Softmax trick to optimize the knockoff generator under the worst-case
swap. We find DDLK has higher power than baselines while controlling the false
discovery rate on a variety of synthetic and real benchmarks including a task
involving a large dataset from one of the epicenters of COVID-19.
- Abstract(参考訳): 予測モデリングでは、ディープニューラルネットワークなどのブラックボックス機械学習手法を使用して最先端のパフォーマンスを実現することが多い。
科学的領域では、科学者は予測を行うのにどの特徴が実際に重要なのかを知りたがることが多い。
これらの発見は、コストのかかるフォローアップ実験につながる可能性があり、発見に対するエラー率があまり高くないことが重要である。
model-xのノックオフにより、fdrを制御して重要な機能を発見できる。
しかし、ノックオフには、いわゆる"swap"プロパティに準拠しながら、ノックオフ機能を正確にモデル化できるリッチな生成モデルが必要である。
我々は、ノックオフスワップ特性がもたらすKLの発散を直接最小化するDeep Direct Likelihood Knockoffs (DDLK) を開発した。
DDLKは、まず特徴の明示的な可能性を最大化し、次に特徴とノックオフの結合分布とそれらのスワップ間のKLのばらつきを最小化する。
生成したノックオフが任意のスワップで有効であることを保証するため、DDLKはGumbel-Softmaxトリックを使用して、最悪のスワップでノックオフジェネレータを最適化する。
DDLKはベースラインよりも高いパワーを持ち、COVID-19の震源の1つである大規模なデータセットを含む様々な合成および実際のベンチマークでの偽発見率を制御する。
関連論文リスト
- DeepDRK: Deep Dependency Regularized Knockoff for Feature Selection [16.678910111353307]
ディープ依存正規化ノックオフ(Deep Dependency Regularized Knockoff)とは、FDRと電力のバランスをとる分布自由なディープラーニング手法である。
我々のモデルは、合成、半合成、および実世界のデータにおいて、他のベンチマークよりも優れています。
論文 参考訳(メタデータ) (2024-02-27T03:24:54Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Detach-ROCKET: Sequential feature selection for time series
classification with random convolutional kernels [0.8192907805418583]
連続特徴分離(SFD)を,これらの非連続特徴を識別・特定する手法として導入する。
SFDは特徴量の推定にモデル係数を使用し、従来のアルゴリズムとは異なり、大きな特徴集合を扱うことができる。
また,特徴量とモデル精度の最適バランスを決定するためのエンドツーエンドの手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T20:24:36Z) - ARK: Robust Knockoffs Inference with Coupling [7.349524510920049]
本稿では,モデル-Xノックオフフレームワークの,不特定あるいは推定された特徴分布に対するロバスト性について検討する。
我々の理論解析における重要な手法は、近似ノックオフ手順とモデル-Xノックオフ手順とを結合して、これらの2つの手順のランダム変数が実現時に近いようにすることである。
論文 参考訳(メタデータ) (2023-07-10T08:01:59Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Learning generative models for valid knockoffs using novel
multivariate-rank based statistics [12.528602250193206]
ランクエネルギー (RE) は、Monge's Optimal Transport (OT) 問題における最適写像を特徴付ける理論的結果を用いて導出される。
我々は、ソフトランクエネルギー(sRE)と呼ばれるREの変種と、ソフトランク最大平均誤差(sRMMD)と呼ばれるカーネル変種を提案する。
次に、sRMMDを用いて深いノックオフを生成し、有効なノックオフを生成するための新規かつ効果的な方法であることを示す。
論文 参考訳(メタデータ) (2021-10-29T18:51:19Z) - GDP: Stabilized Neural Network Pruning via Gates with Differentiable
Polarization [84.57695474130273]
ゲートベースまたは重要度に基づくプルーニング手法は、重要度が最小のチャネルを削除することを目的としている。
GDPは、各チャネルのオン・アンド・オフを制御するために、ベルやホイッスルのない畳み込み層の前に接続することができる。
CIFAR-10とImageNetデータセットを用いて行った実験は、提案したGDPが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-09-06T03:17:10Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。