論文の概要: Learning False Discovery Rate Control via Model-Based Neural Networks
- arxiv url: http://arxiv.org/abs/2602.05798v1
- Date: Thu, 05 Feb 2026 15:53:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.018606
- Title: Learning False Discovery Rate Control via Model-Based Neural Networks
- Title(参考訳): モデルベースニューラルネットワークによる偽発見率制御の学習
- Authors: Arnau Vilella, Jasin Machkour, Michael Muma, Daniel P. Palomar,
- Abstract要約: 本稿では、FDPとFDRのギャップを狭めるT-Rex Selectorフレームワークの学習強化について紹介する。
提案手法は,解析的FDP推定器を,多様な合成データセットのみを訓練したニューラルネットワークに置き換えることで,FDPのより厳密で正確な近似を可能にする。
- 参考スコア(独自算出の注目度): 14.45679797184966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Controlling the false discovery rate (FDR) in high-dimensional variable selection requires balancing rigorous error control with statistical power. Existing methods with provable guarantees are often overly conservative, creating a persistent gap between the realized false discovery proportion (FDP) and the target FDR level. We introduce a learning-augmented enhancement of the T-Rex Selector framework that narrows this gap. Our approach replaces the analytical FDP estimator with a neural network trained solely on diverse synthetic datasets, enabling a substantially tighter and more accurate approximation of the FDP. This refinement allows the procedure to operate much closer to the desired FDR level, thereby increasing discovery power while maintaining effective approximate control. Through extensive simulations and a challenging synthetic genome-wide association study (GWAS), we demonstrate that our method achieves superior detection of true variables compared to existing approaches.
- Abstract(参考訳): 高次元変数選択における偽発見率(FDR)の制御には、厳密な誤り制御と統計的パワーのバランスが必要である。
証明可能な保証を持つ既存の方法は、しばしば過度に保守的であり、実現された偽発見比率(FDP)と対象のFDRレベルの間に永続的なギャップを生じる。
本稿では,このギャップを狭めるT-Rex Selectorフレームワークの学習強化について紹介する。
提案手法は,解析的FDP推定器を,多様な合成データセットのみを訓練したニューラルネットワークに置き換えることで,FDPのより厳密で正確な近似を可能にする。
この改良により、手順は所望のFDRレベルにはるかに近い操作が可能となり、効率的な近似制御を維持しながら発見能力を高めることができる。
本研究は, 広範囲なシミュレーションと, 合成ゲノムワイド・アソシエーション研究(GWAS)を通じて, 既存の手法と比較して, 真変数の検出が優れていることを示す。
関連論文リスト
- GRIP2: A Robust and Powerful Deep Knockoff Method for Feature Selection [9.889589777434283]
グループ規則化重要度2次元(GRIP2)は、2次元正則化面上の第1層の特徴活性を統合する。
合成および半実データの実験において、GRIP2は特徴相関と雑音レベルの改善を実証した。
現実のHIV薬剤耐性データでは、GRIP2は既知の抵抗関連変異を、確立された線形塩基性よりも優れたパワーで回収する。
論文 参考訳(メタデータ) (2026-01-30T16:30:49Z) - LEC: Linear Expectation Constraints for False-Discovery Control in Selective Prediction and Routing Systems [95.35293543918762]
大規模言語モデル(LLM)はしばしば信頼できない答えを生成するが、不確実性のある手法は誤った予測と完全に区別することができない。
我々は、この問題を、偽発見率(FDR)制御のレンズを通して解決し、全ての許容された予測のうち、エラーの割合が目標のリスクレベルを超えないことを保証する。
本稿では,線形期待制約を強制することで,選択予測を制約付き決定問題として再解釈するLECを提案する。
論文 参考訳(メタデータ) (2025-12-01T11:27:09Z) - A False Discovery Rate Control Method Using a Fully Connected Hidden Markov Random Field for Neuroimaging Data [1.7582682214679273]
ボクセルワイド多重テストのための,強力で安定かつスケーラブルな空間FDR制御法であるfcHMRF-LISを提案する。
fcHMRF-LISは、FDRの正確な制御、FNRの低下、FDPおよびFNPの変動率の低下、既存手法と比較して真正値の増大を実現している。
論文 参考訳(メタデータ) (2025-05-27T03:59:02Z) - Adding Additional Control to One-Step Diffusion with Joint Distribution Matching [58.37264951734603]
JDMは、画像-条件関節分布間の逆KL分散を最小化する新しいアプローチである。
トラクタブルな上限を導出することにより、JDMは条件学習から忠実度学習を分離する。
この非対称蒸留方式により,一段階の生徒が教師モデルに未知の制御を処理できるようになる。
論文 参考訳(メタデータ) (2025-03-09T15:06:50Z) - High-Dimensional False Discovery Rate Control for Dependent Variables [10.86851797584794]
本稿では,変数間の依存関係構造を利用した依存性認識型T-Rexセレクタを提案する。
可変ペナル化機構がFDR制御を保証することを実証する。
グラフィカルモデルとT-Rexフレームワークのパラメータを同時に決定する完全統合最適キャリブレーションアルゴリズムを定式化する。
論文 参考訳(メタデータ) (2024-01-28T22:56:16Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。