論文の概要: Adaptive Selection of the Optimal Strategy to Improve Precision and
Power in Randomized Trials
- arxiv url: http://arxiv.org/abs/2210.17453v2
- Date: Tue, 30 May 2023 14:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 02:27:31.518087
- Title: Adaptive Selection of the Optimal Strategy to Improve Precision and
Power in Randomized Trials
- Title(参考訳): ランダム化試験における精度とパワー向上のための最適戦略の適応的選択
- Authors: Laura B. Balzer, Erica Cai, Lucas Godoy Garraza, Pracheta Amaranath
- Abstract要約: 精度を最大化するために、どの変数とどの形式で調整アプローチを選択するかを示す。
このアプローチは、(nullの下で)Type-Iエラー制御を維持し、精度を大幅に向上させる。
実データに適用すると、全体およびサブグループ内で有意義な効率改善が見られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Benkeser et al. demonstrate how adjustment for baseline covariates in
randomized trials can meaningfully improve precision for a variety of outcome
types. Their findings build on a long history, starting in 1932 with R.A.
Fisher and including more recent endorsements by the U.S. Food and Drug
Administration and the European Medicines Agency. Here, we address an important
practical consideration: *how* to select the adjustment approach -- which
variables and in which form -- to maximize precision, while maintaining Type-I
error control. Balzer et al. previously proposed *Adaptive Prespecification*
within TMLE to flexibly and automatically select, from a prespecified set, the
approach that maximizes empirical efficiency in small trials (N$<$40). To avoid
overfitting with few randomized units, selection was previously limited to
working generalized linear models, adjusting for a single covariate. Now, we
tailor Adaptive Prespecification to trials with many randomized units. Using
$V$-fold cross-validation and the estimated influence curve-squared as the loss
function, we select from an expanded set of candidates, including modern
machine learning methods adjusting for multiple covariates. As assessed in
simulations exploring a variety of data generating processes, our approach
maintains Type-I error control (under the null) and offers substantial gains in
precision -- equivalent to 20-43\% reductions in sample size for the same
statistical power. When applied to real data from ACTG Study 175, we also see
meaningful efficiency improvements overall and within subgroups.
- Abstract(参考訳): benkeserらは、ランダム化試行におけるベースライン共変量の調整が、様々なアウトカムタイプの精度を有意義に改善することを示す。
この発見は1932年にr・a・フィッシャーと共に始まり、アメリカ食品医薬品局(fda)と欧州医薬品局(esa)の支持を得た。
ここでは,<I>I</I>のエラー制御を維持しつつ,どの変数とどの形式で,精度を最大化する調整アプローチを選択するか。
Balzer らは以前 TMLE 内で *Adaptive Prespecification* を提案し、事前指定された集合から、小さな試行において経験的効率を最大化するアプローチ(N$<40)を柔軟かつ自動的に選択した。
数個のランダム単位で過剰にフィットするのを避けるために、選択は1つの共変量に調整して機能する一般化線形モデルに限定されていた。
現在、アダプティブ・プレ種別を多くのランダム化ユニットで試行に調整しています。
損失関数として$V$フォールドのクロスバリデーションと推定影響曲線を使用すれば、複数の共変量に対応する現代的な機械学習手法を含む、拡張された候補セットから選択できる。
様々なデータ生成プロセスのシミュレーションで評価されているように、我々の手法はType-Iエラー制御を(nullの下で)維持し、同じ統計パワーに対してサンプルサイズの20~43倍の削減に相当する精度で大幅に向上する。
ACTG Study 175の実際のデータに適用すると、全体としてもサブグループ内でも有意義な効率改善が見られる。
関連論文リスト
- Model-independent variable selection via the rule-based variable priority [1.2771542695459488]
モデルに依存しない新しいアプローチである可変優先度(VarPro)を導入する。
VarProは、人工データを生成したり、予測エラーを評価することなく、ルールを活用する。
VarProはノイズ変数に対して一貫したフィルタリング特性を持つことを示す。
論文 参考訳(メタデータ) (2024-09-13T17:32:05Z) - Improving Bias Correction Standards by Quantifying its Effects on Treatment Outcomes [54.18828236350544]
Propensity score matching (PSM) は、分析のために同等の人口を選択することで選択バイアスに対処する。
異なるマッチング手法は、すべての検証基準を満たす場合でも、同じタスクに対する平均処理効果(ATE)を著しく異なるものにすることができる。
この問題に対処するため,新しい指標A2Aを導入し,有効試合数を削減した。
論文 参考訳(メタデータ) (2024-07-20T12:42:24Z) - Dual-stage optimizer for systematic overestimation adjustment applied to
multi-objective genetic algorithms for biomarker selection [0.18648070031379424]
特徴選択法を用いたバイオマーカー同定は,特徴数における予測能力とパシモニーのトレードオフを伴う多目的問題として扱うことができる。
提案するDOSA-MOは多目的最適化ラッパーアルゴリズムで,元の推定値,分散度,および解の特徴セットサイズが過大評価を予測する。
論文 参考訳(メタデータ) (2023-12-27T16:13:14Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bilevel Optimization for Feature Selection in the Data-Driven Newsvendor
Problem [8.281391209717105]
本稿では、意思決定者が過去のデータにアクセス可能な機能ベースのニュースベンダー問題について検討する。
そこで本研究では,スパースモデル,説明可能なモデル,およびアウト・オブ・サンプル性能の改善を目的とした特徴選択について検討する。
本稿では,2レベルプログラムに対する混合整数線形プログラムの修正について述べる。
論文 参考訳(メタデータ) (2022-09-12T08:52:26Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Variable selection with missing data in both covariates and outcomes:
Imputation and machine learning [1.0333430439241666]
欠落したデータ問題は、健康研究で普遍的です。
機械学習はパラメトリックな仮定を弱める。
XGBoostとBARTは、さまざまな設定で最高のパフォーマンスを発揮します。
論文 参考訳(メタデータ) (2021-04-06T20:18:29Z) - Selecting Treatment Effects Models for Domain Adaptation Using Causal
Knowledge [82.5462771088607]
監視されていないドメイン適応設定下でITE法用に特別に設計された新しいモデル選択メトリックを提案する。
特に,介入効果の予測が対象領域の既知の因果構造を満たすモデルを選択することを提案する。
論文 参考訳(メタデータ) (2021-02-11T21:03:14Z) - Increasing the efficiency of randomized trial estimates via linear
adjustment for a prognostic score [59.75318183140857]
ランダム化実験による因果効果の推定は臨床研究の中心である。
歴史的借用法のほとんどは、厳格なタイプiエラー率制御を犠牲にして分散の削減を達成する。
論文 参考訳(メタデータ) (2020-12-17T21:10:10Z) - Applying Dynamic Training-Subset Selection Methods Using Genetic
Programming for Forecasting Implied Volatility [0.0]
本稿では,遺伝的プログラミング(GP)の拡張によるインプリッドボラティリティの予測精度の向上を目的とする。
ランダム・シーケンシャル・アダプティブ・サブセット選択に基づいて,4つの動的トレーニング・サブセット選択法を提案する。
その結果,動的手法により生成したGPモデルの予測性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-06-29T21:28:30Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。