論文の概要: Estimating and Improving Dynamic Treatment Regimes With a Time-Varying
Instrumental Variable
- arxiv url: http://arxiv.org/abs/2104.07822v1
- Date: Thu, 15 Apr 2021 23:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:29:03.872369
- Title: Estimating and Improving Dynamic Treatment Regimes With a Time-Varying
Instrumental Variable
- Title(参考訳): 時変インストゥルメンタル変数を用いた動的治療レジームの推定と改善
- Authors: Shuxiao Chen, Bo Zhang
- Abstract要約: レトロスペクティブの観測データから動的治療体制(DTR)を推定することは、ある程度の未測定のコンバーチングがしばしば予想されるため、困難である。
我々は、適切に定義された「最適」を推定する枠組みを開発する
保証されているDTRは、事前に指定されたベースラインよりも悪く、潜在的に優れている。
- 参考スコア(独自算出の注目度): 9.680527191968409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating dynamic treatment regimes (DTRs) from retrospective observational
data is challenging as some degree of unmeasured confounding is often expected.
In this work, we develop a framework of estimating properly defined "optimal"
DTRs with a time-varying instrumental variable (IV) when unmeasured covariates
confound the treatment and outcome, rendering the potential outcome
distributions only partially identified. We derive a novel Bellman equation
under partial identification, use it to define a generic class of estimands
(termed IV-optimal DTRs), and study the associated estimation problem. We then
extend the IV-optimality framework to tackle the policy improvement problem,
delivering IV-improved DTRs that are guaranteed to perform no worse and
potentially better than a pre-specified baseline DTR. Importantly, our
IV-improvement framework opens up the possibility of strictly improving upon
DTRs that are optimal under the no unmeasured confounding assumption (NUCA). We
demonstrate via extensive simulations the superior performance of IV-optimal
and IV-improved DTRs over the DTRs that are optimal only under the NUCA. In a
real data example, we embed retrospective observational registry data into a
natural, two-stage experiment with noncompliance using a time-varying IV and
estimate useful IV-optimal DTRs that assign mothers to high-level or low-level
neonatal intensive care units based on their prognostic variables.
- Abstract(参考訳): 振り返り観測データから動的治療体制(DTR)を推定することは、ある程度の未測定条件が期待されるため困難である。
本研究では,未測定の共変量で処理と結果が一致した場合に,適切に定義された「最適」DTRを時変器用変数(IV)で推定する枠組みを構築し,潜在的な結果分布を部分的にのみ同定する。
部分的同定の下でベルマン方程式を導出し、それを用いて推定値(IV-最適DTR)の一般クラスを定義し、関連する推定問題を研究する。
次に、政策改善問題に対処するために、IV最適化フレームワークを拡張し、事前に規定されたベースラインDTRよりも悪く、潜在的に優れていることを保証したIV改善DTRを提供する。
重要なことは、我々のIV改善フレームワークは、未測定の共起仮定(NUCA)の下で最適であるDTRを厳格に改善する可能性を開くことである。
我々は, NUCAの下でのみ最適であるDTRに対して, IV-optimal DTRとIV-improved DTRの優れた性能を示す。
実データ例では, 経年観察レジストリーデータを, 経時的ivを用いた非コンプライアンスを伴う自然な二段階実験に組み込んで, 予後変数に基づいて母親を高レベルまたは低レベルの新生児集中治療単位に割り当てる有用なiv-optimal dtrを推定する。
関連論文リスト
- Regularized DeepIV with Model Selection [72.17508967124081]
正規化DeepIV(RDIV)回帰は最小ノルムIV解に収束することができる。
我々の手法は現在の最先端の収束率と一致している。
論文 参考訳(メタデータ) (2024-03-07T05:38:56Z) - Efficient and robust transfer learning of optimal individualized
treatment regimes with right-censored survival data [7.308241944759317]
個別治療体制(英: individualized treatment regime、ITR)は、患者の特徴に基づいて治療を割り当てる決定規則である。
本稿では、値関数の2倍頑健な推定器を提案し、その最適ITRは、予め指定されたIRRのクラス内の値関数を最大化することにより学習する。
重篤なメタボリックアシダ血症に対するバイカーボネートナトリウム療法のシミュレーションおよび実データによる評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:47:10Z) - Estimating individual treatment effects under unobserved confounding
using binary instruments [21.563820572163337]
個別治療効果(ITE)を観察データから推定することは、パーソナライズドメディカル(パーソナライズドメディカル)など多くの分野において重要である。
本稿では,バイナリIVを用いてITTを推定するための,MRIVと呼ばれる新しい多元的頑健な機械学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-17T21:25:09Z) - Doubly Robust Distributionally Robust Off-Policy Evaluation and Learning [59.02006924867438]
オフ政治評価と学習(OPE/L)は、オフラインの観察データを使用してより良い意思決定を行う。
近年の研究では、分散ロバストなOPE/L (DROPE/L) が提案されているが、この提案は逆正則重み付けに依存している。
KL分散不確実性集合を用いたDROPE/Lの最初のDRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-19T20:00:44Z) - Ambiguous Dynamic Treatment Regimes: A Reinforcement Learning Approach [0.0]
動的処理レジーム(DTR)は、このプロセスの形式化のために広く研究されている。
最適な治療体制を効率的に学習するための強化学習法を開発した。
論文 参考訳(メタデータ) (2021-12-08T20:22:04Z) - Improving Inference from Simple Instruments through Compliance
Estimation [0.0]
機器変数(IV)回帰は、治療の受け取りが完全にランダムでない環境での因果治療効果を推定するために広く用いられている。
IVは、一貫した治療効果の見積もりを回復できるが、しばしばうるさい。
楽器の強度の予測可能な変動を利用して,IV推定値の効率を改善する方法について検討した。
論文 参考訳(メタデータ) (2021-08-08T20:18:34Z) - Instrumental Variable Value Iteration for Causal Offline Reinforcement
Learning [94.70124304098469]
オフライン強化学習(RL)では、事前収集された観測データのみから最適なポリシーを学習する。
我々は、遷移力学が加法非線形関数形式を認める連結マルコフ決定過程について研究する。
本稿では,CMRの一次二重改質に基づくIV-aided Value Iteration (IVVI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-19T13:01:40Z) - DeepRite: Deep Recurrent Inverse TreatmEnt Weighting for Adjusting
Time-varying Confounding in Modern Longitudinal Observational Data [68.29870617697532]
時系列データにおける時間変化の相違に対するDeep Recurrent Inverse TreatmEnt重み付け(DeepRite)を提案する。
DeepRiteは、合成データから基底的真理を復元し、実際のデータから偏りのない処理効果を推定する。
論文 参考訳(メタデータ) (2020-10-28T15:05:08Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。