論文の概要: Robust Learning for Optimal Dynamic Treatment Regimes with Observational Data
- arxiv url: http://arxiv.org/abs/2404.00221v4
- Date: Wed, 20 Nov 2024 05:50:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 12:32:40.953804
- Title: Robust Learning for Optimal Dynamic Treatment Regimes with Observational Data
- Title(参考訳): 観測データを用いた最適動的処理規則のロバスト学習
- Authors: Shosei Sakaguchi,
- Abstract要約: 本研究では,各段階における各個人に対する最適な治療課題を,個人の進化史に基づいて導くための最適動的治療体制(DTR)の統計的学習について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Public policies and medical interventions often involve dynamics in their treatment assignments, where individuals receive a series of interventions over multiple stages. We study the statistical learning of optimal dynamic treatment regimes (DTRs) that guide the optimal treatment assignment for each individual at each stage based on the individual's evolving history. We propose a doubly robust, classification-based approach to learning the optimal DTR using observational data under the assumption of sequential ignorability. This approach learns the optimal DTR through backward induction. At each step, it constructs an augmented inverse probability weighting (AIPW) estimator of the policy value function and maximizes it to learn the optimal policy for the corresponding stage. We show that the resulting DTR can achieve an optimal convergence rate of $n^{-1/2}$ for welfare regret under mild convergence conditions on estimators of the nuisance components.
- Abstract(参考訳): 公共政策や医療介入は、しばしば治療の課題においてダイナミックスを伴い、個人は複数の段階にわたって一連の介入を受ける。
本研究では,各段階における各個人に対する最適な治療課題を,個人の進化史に基づいて導くための最適動的治療体制(DTR)の統計的学習について検討する。
逐次的無知を前提とした観測データを用いて最適なDTRを学習するための2つの頑健な分類に基づくアプローチを提案する。
このアプローチは、後方誘導により最適なDTRを学習する。
各ステップにおいて、ポリシ値関数の強化逆確率重み付け(AIPW)推定器を構築し、それを最大化し、対応するステージの最適ポリシーを学習する。
得られたDTRは,n^{-1/2}$の最適収束率を,ニュアンス成分の推定値に対する軽度収束条件下で達成できることを示す。
関連論文リスト
- Truncating Trajectories in Monte Carlo Policy Evaluation: an Adaptive Approach [51.76826149868971]
モンテカルロシミュレーションによる政策評価は多くのMC強化学習(RL)アルゴリズムの中核にある。
本研究では,異なる長さの軌跡を用いた回帰推定器の平均二乗誤差のサロゲートとして品質指標を提案する。
本稿では,Robust and Iterative Data Collection Strategy Optimization (RIDO) という適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T11:47:56Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Efficient and robust transfer learning of optimal individualized
treatment regimes with right-censored survival data [7.308241944759317]
個別治療体制(英: individualized treatment regime、ITR)は、患者の特徴に基づいて治療を割り当てる決定規則である。
本稿では、値関数の2倍頑健な推定器を提案し、その最適ITRは、予め指定されたIRRのクラス内の値関数を最大化することにより学習する。
重篤なメタボリックアシダ血症に対するバイカーボネートナトリウム療法のシミュレーションおよび実データによる評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:47:10Z) - When AUC meets DRO: Optimizing Partial AUC for Deep Learning with
Non-Convex Convergence Guarantee [51.527543027813344]
単方向および二方向部分AUC(pAUC)の系統的および効率的な勾配法を提案する。
一方通行と一方通行の pAUC に対して,2つのアルゴリズムを提案し,それぞれ2つの定式化を最適化するための収束性を証明した。
論文 参考訳(メタデータ) (2022-03-01T01:59:53Z) - Policy Learning for Optimal Individualized Dose Intervals [3.9801611649762263]
このような政策を推定する新しい手法を提案する。
推定された政策は一貫しており、そのリスクはルートnレートで最良クラスの政策に収束する。
論文 参考訳(メタデータ) (2022-02-24T17:59:20Z) - Variance-Aware Off-Policy Evaluation with Linear Function Approximation [85.75516599931632]
線形関数近似を用いた強化学習における非政治的評価問題について検討する。
本稿では,値関数の分散を推定し,フィルタQ-Iterationにおけるベルマン残差を再重み付けするアルゴリズムVA-OPEを提案する。
論文 参考訳(メタデータ) (2021-06-22T17:58:46Z) - Estimation of Optimal Dynamic Treatment Assignment Rules under Policy Constraints [0.0]
本研究は,各段階の個人に対して,その履歴に基づいて最適な治療課題を導出する最適動的治療体制の推定について検討する。
提案手法は, 下位帰納的帰納的帰納的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属
論文 参考訳(メタデータ) (2021-06-09T12:42:53Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z) - Comment: Entropy Learning for Dynamic Treatment Regimes [58.442274475425144]
JSLZのアプローチは、逆確率(IPW)に基づく与えられた決定規則の値の拒絶とサンプリングの見積もりと、その解釈を重み付けされた(またはコストに敏感な)分類として利用する。
彼らのスムーズな分類サロゲートの使用は、分布の分析に慎重なアプローチを可能にする。
IPWの推定は、ほとんどのデータを捨てる重みにつながり、残余については非常に変動しているため、問題となる。
論文 参考訳(メタデータ) (2020-04-06T16:11:05Z) - Multicategory Angle-based Learning for Estimating Optimal Dynamic
Treatment Regimes with Censored Data [12.499787110182632]
最適な治療体制(DTR)は、長期的な利益を最大化するための一連の決定規則から構成される。
本稿では,マルチカテゴリ処理フレームワークを用いて,最適DTRをターゲットとした新しい角度ベースアプローチを提案する。
本稿では,条件付き生存関数の最大化の観点から,提案手法が競合手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T05:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。