論文の概要: Estimating and Improving Dynamic Treatment Regimes With a Time-Varying
Instrumental Variable
- arxiv url: http://arxiv.org/abs/2104.07822v1
- Date: Thu, 15 Apr 2021 23:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:29:03.872369
- Title: Estimating and Improving Dynamic Treatment Regimes With a Time-Varying
Instrumental Variable
- Title(参考訳): 時変インストゥルメンタル変数を用いた動的治療レジームの推定と改善
- Authors: Shuxiao Chen, Bo Zhang
- Abstract要約: レトロスペクティブの観測データから動的治療体制(DTR)を推定することは、ある程度の未測定のコンバーチングがしばしば予想されるため、困難である。
我々は、適切に定義された「最適」を推定する枠組みを開発する
保証されているDTRは、事前に指定されたベースラインよりも悪く、潜在的に優れている。
- 参考スコア(独自算出の注目度): 9.680527191968409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating dynamic treatment regimes (DTRs) from retrospective observational
data is challenging as some degree of unmeasured confounding is often expected.
In this work, we develop a framework of estimating properly defined "optimal"
DTRs with a time-varying instrumental variable (IV) when unmeasured covariates
confound the treatment and outcome, rendering the potential outcome
distributions only partially identified. We derive a novel Bellman equation
under partial identification, use it to define a generic class of estimands
(termed IV-optimal DTRs), and study the associated estimation problem. We then
extend the IV-optimality framework to tackle the policy improvement problem,
delivering IV-improved DTRs that are guaranteed to perform no worse and
potentially better than a pre-specified baseline DTR. Importantly, our
IV-improvement framework opens up the possibility of strictly improving upon
DTRs that are optimal under the no unmeasured confounding assumption (NUCA). We
demonstrate via extensive simulations the superior performance of IV-optimal
and IV-improved DTRs over the DTRs that are optimal only under the NUCA. In a
real data example, we embed retrospective observational registry data into a
natural, two-stage experiment with noncompliance using a time-varying IV and
estimate useful IV-optimal DTRs that assign mothers to high-level or low-level
neonatal intensive care units based on their prognostic variables.
- Abstract(参考訳): 振り返り観測データから動的治療体制(DTR)を推定することは、ある程度の未測定条件が期待されるため困難である。
本研究では,未測定の共変量で処理と結果が一致した場合に,適切に定義された「最適」DTRを時変器用変数(IV)で推定する枠組みを構築し,潜在的な結果分布を部分的にのみ同定する。
部分的同定の下でベルマン方程式を導出し、それを用いて推定値(IV-最適DTR)の一般クラスを定義し、関連する推定問題を研究する。
次に、政策改善問題に対処するために、IV最適化フレームワークを拡張し、事前に規定されたベースラインDTRよりも悪く、潜在的に優れていることを保証したIV改善DTRを提供する。
重要なことは、我々のIV改善フレームワークは、未測定の共起仮定(NUCA)の下で最適であるDTRを厳格に改善する可能性を開くことである。
我々は, NUCAの下でのみ最適であるDTRに対して, IV-optimal DTRとIV-improved DTRの優れた性能を示す。
実データ例では, 経年観察レジストリーデータを, 経時的ivを用いた非コンプライアンスを伴う自然な二段階実験に組み込んで, 予後変数に基づいて母親を高レベルまたは低レベルの新生児集中治療単位に割り当てる有用なiv-optimal dtrを推定する。
関連論文リスト
- Offline Behavior Distillation [57.6900189406964]
大規模な強化学習(RL)データは通常、インタラクションを必要とせずにポリシをオフラインにトレーニングするために収集される。
準最適RLデータから限られた専門家の行動データを合成するオフライン行動蒸留(OBD)を定式化する。
そこで本研究では, 蒸留データとオフラインデータ, ほぼ専門的ポリシーのいずれにおいても, 蒸留性能を判断的差異によって測定する2つの単純OBD目標であるDBCとPBCを提案する。
論文 参考訳(メタデータ) (2024-10-30T06:28:09Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Robust Learning for Optimal Dynamic Treatment Regimes with Observational Data [0.0]
本研究では,各段階における各個人に対する最適な治療課題を,個人の進化史に基づいて導くための最適動的治療体制(DTR)の統計的学習について検討する。
論文 参考訳(メタデータ) (2024-03-30T02:33:39Z) - Efficient and robust transfer learning of optimal individualized
treatment regimes with right-censored survival data [7.308241944759317]
個別治療体制(英: individualized treatment regime、ITR)は、患者の特徴に基づいて治療を割り当てる決定規則である。
本稿では、値関数の2倍頑健な推定器を提案し、その最適ITRは、予め指定されたIRRのクラス内の値関数を最大化することにより学習する。
重篤なメタボリックアシダ血症に対するバイカーボネートナトリウム療法のシミュレーションおよび実データによる評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:47:10Z) - Estimating individual treatment effects under unobserved confounding
using binary instruments [21.563820572163337]
個別治療効果(ITE)を観察データから推定することは、パーソナライズドメディカル(パーソナライズドメディカル)など多くの分野において重要である。
本稿では,バイナリIVを用いてITTを推定するための,MRIVと呼ばれる新しい多元的頑健な機械学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-17T21:25:09Z) - Doubly Robust Distributionally Robust Off-Policy Evaluation and Learning [59.02006924867438]
オフ政治評価と学習(OPE/L)は、オフラインの観察データを使用してより良い意思決定を行う。
近年の研究では、分散ロバストなOPE/L (DROPE/L) が提案されているが、この提案は逆正則重み付けに依存している。
KL分散不確実性集合を用いたDROPE/Lの最初のDRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-19T20:00:44Z) - Ambiguous Dynamic Treatment Regimes: A Reinforcement Learning Approach [0.0]
動的処理レジーム(DTR)は、このプロセスの形式化のために広く研究されている。
最適な治療体制を効率的に学習するための強化学習法を開発した。
論文 参考訳(メタデータ) (2021-12-08T20:22:04Z) - Improving Inference from Simple Instruments through Compliance
Estimation [0.0]
機器変数(IV)回帰は、治療の受け取りが完全にランダムでない環境での因果治療効果を推定するために広く用いられている。
IVは、一貫した治療効果の見積もりを回復できるが、しばしばうるさい。
楽器の強度の予測可能な変動を利用して,IV推定値の効率を改善する方法について検討した。
論文 参考訳(メタデータ) (2021-08-08T20:18:34Z) - Instrumental Variable Value Iteration for Causal Offline Reinforcement Learning [107.70165026669308]
オフライン強化学習(RL)では、事前収集された観測データのみから最適なポリシーが学習される。
遷移力学が加法的非線形汎関数形式を持つようなマルコフ決定過程について検討する。
そこで本稿では,条件付きモーメント制限の原始的2次元再構成に基づく,証明可能なIVVIアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-19T13:01:40Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。