論文の概要: Deep Direct Likelihood Knockoffs
- arxiv url: http://arxiv.org/abs/2007.15835v1
- Date: Fri, 31 Jul 2020 04:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:11:42.506090
- Title: Deep Direct Likelihood Knockoffs
- Title(参考訳): 深い直接的可能性のノックオフ
- Authors: Mukund Sudarshan, Wesley Tansey, Rajesh Ranganath
- Abstract要約: 科学的領域では、科学者は予測を行うのにどの特徴が実際に重要なのかを知りたがることが多い。
Model-Xのノックオフにより、FDRを制御して重要な特徴を発見することができる。
我々は、ノックオフスワップ特性がもたらすKLの発散を直接最小化するDeep Direct Likelihood Knockoffs (DDLK) を開発した。
- 参考スコア(独自算出の注目度): 28.261829940133484
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predictive modeling often uses black box machine learning methods, such as
deep neural networks, to achieve state-of-the-art performance. In scientific
domains, the scientist often wishes to discover which features are actually
important for making the predictions. These discoveries may lead to costly
follow-up experiments and as such it is important that the error rate on
discoveries is not too high. Model-X knockoffs enable important features to be
discovered with control of the FDR. However, knockoffs require rich generative
models capable of accurately modeling the knockoff features while ensuring they
obey the so-called "swap" property. We develop Deep Direct Likelihood Knockoffs
(DDLK), which directly minimizes the KL divergence implied by the knockoff swap
property. DDLK consists of two stages: it first maximizes the explicit
likelihood of the features, then minimizes the KL divergence between the joint
distribution of features and knockoffs and any swap between them. To ensure
that the generated knockoffs are valid under any possible swap, DDLK uses the
Gumbel-Softmax trick to optimize the knockoff generator under the worst-case
swap. We find DDLK has higher power than baselines while controlling the false
discovery rate on a variety of synthetic and real benchmarks including a task
involving a large dataset from one of the epicenters of COVID-19.
- Abstract(参考訳): 予測モデリングでは、ディープニューラルネットワークなどのブラックボックス機械学習手法を使用して最先端のパフォーマンスを実現することが多い。
科学的領域では、科学者は予測を行うのにどの特徴が実際に重要なのかを知りたがることが多い。
これらの発見は、コストのかかるフォローアップ実験につながる可能性があり、発見に対するエラー率があまり高くないことが重要である。
model-xのノックオフにより、fdrを制御して重要な機能を発見できる。
しかし、ノックオフには、いわゆる"swap"プロパティに準拠しながら、ノックオフ機能を正確にモデル化できるリッチな生成モデルが必要である。
我々は、ノックオフスワップ特性がもたらすKLの発散を直接最小化するDeep Direct Likelihood Knockoffs (DDLK) を開発した。
DDLKは、まず特徴の明示的な可能性を最大化し、次に特徴とノックオフの結合分布とそれらのスワップ間のKLのばらつきを最小化する。
生成したノックオフが任意のスワップで有効であることを保証するため、DDLKはGumbel-Softmaxトリックを使用して、最悪のスワップでノックオフジェネレータを最適化する。
DDLKはベースラインよりも高いパワーを持ち、COVID-19の震源の1つである大規模なデータセットを含む様々な合成および実際のベンチマークでの偽発見率を制御する。
関連論文リスト
- Sequence Compression Speeds Up Credit Assignment in Reinforcement Learning [33.28797183140384]
時間差(TD)学習は、分散を克服するためにブートストラップを使用するが、多くのイテレーションでしか修正できないバイアスを導入する。
ラムダ$-returnターゲットの計算モデルからトランジションの予測確率を利用するチャンク付きTDを提案する。
論文 参考訳(メタデータ) (2024-05-06T21:49:29Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - DeepDRK: Deep Dependency Regularized Knockoff for Feature Selection [14.840211139848275]
ディープ依存正規化ノックオフ(Deep Dependency Regularized Knockoff)とは、FDRと電力を効果的にバランスさせる分布自由なディープラーニング手法である。
マルチソース攻撃下での学習問題として,ノックオフモデルの新たな定式化を導入する。
我々のモデルは、合成、半合成、および実世界のデータセットで既存のベンチマークより優れています。
論文 参考訳(メタデータ) (2024-02-27T03:24:54Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - ARK: Robust Knockoffs Inference with Coupling [7.288274235236948]
本稿では,モデル-Xノックオフフレームワークの,不特定あるいは推定された特徴分布に対するロバスト性について検討する。
鍵となる手法は、近似ノックオフ手順とモデル-Xノックオフ手順を結合して、これらの2つのプロシージャのランダム変数が実現時に近いようにすることである。
このような結合モデル-Xノックオフ手順が存在する場合、その近似ノックオフ手順は、目標レベルのFDRまたは$k$-FWER制御を達成することができる。
論文 参考訳(メタデータ) (2023-07-10T08:01:59Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Learning generative models for valid knockoffs using novel
multivariate-rank based statistics [12.528602250193206]
ランクエネルギー (RE) は、Monge's Optimal Transport (OT) 問題における最適写像を特徴付ける理論的結果を用いて導出される。
我々は、ソフトランクエネルギー(sRE)と呼ばれるREの変種と、ソフトランク最大平均誤差(sRMMD)と呼ばれるカーネル変種を提案する。
次に、sRMMDを用いて深いノックオフを生成し、有効なノックオフを生成するための新規かつ効果的な方法であることを示す。
論文 参考訳(メタデータ) (2021-10-29T18:51:19Z) - GDP: Stabilized Neural Network Pruning via Gates with Differentiable
Polarization [84.57695474130273]
ゲートベースまたは重要度に基づくプルーニング手法は、重要度が最小のチャネルを削除することを目的としている。
GDPは、各チャネルのオン・アンド・オフを制御するために、ベルやホイッスルのない畳み込み層の前に接続することができる。
CIFAR-10とImageNetデータセットを用いて行った実験は、提案したGDPが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-09-06T03:17:10Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。