論文の概要: Estimation of Optimal Dynamic Treatment Assignment Rules under Policy
Constraint
- arxiv url: http://arxiv.org/abs/2106.05031v1
- Date: Wed, 9 Jun 2021 12:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 23:11:44.676965
- Title: Estimation of Optimal Dynamic Treatment Assignment Rules under Policy
Constraint
- Title(参考訳): 政策制約下における最適動的処理割り当て則の推定
- Authors: Shosei Sakaguchi
- Abstract要約: 個人の歴史に基づいて各段階毎の最適治療課題を導出する最適動的治療則を推定することを検討する。
本稿では,各段階における処理代入問題と,各段階における動的処理代入問題とを同時に解く方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies statistical decisions for dynamic treatment assignment
problems. Many policies involve dynamics in their treatment assignments where
treatments are sequentially assigned to individuals across multiple stages and
the effect of treatment at each stage is usually heterogeneous with respect to
the prior treatments, past outcomes, and observed covariates. We consider
estimating an optimal dynamic treatment rule that guides the optimal treatment
assignment for each individual at each stage based on the individual's history.
This paper proposes an empirical welfare maximization approach in a dynamic
framework. The approach estimates the optimal dynamic treatment rule from panel
data taken from an experimental or quasi-experimental study. The paper proposes
two estimation methods: one solves the treatment assignment problem at each
stage through backward induction, and the other solves the whole dynamic
treatment assignment problem simultaneously across all stages. We derive
finite-sample upper bounds on the worst-case average welfare-regrets for the
proposed methods and show $n^{-1/2}$-minimax convergence rates. We also modify
the simultaneous estimation method to incorporate intertemporal budget/capacity
constraints.
- Abstract(参考訳): 本稿では,動的処理代入問題に対する統計的決定について検討する。
多くの政策は、治療が複数の段階にわたって個人に順次割り当てられ、各段階における治療の効果は通常、以前の治療、過去の結果、観察された共変量に対して不均一である。
個別の履歴に基づいて各段階の個人に対する最適な治療割り当てを導く最適な動的処置規則を推定することを検討する。
本稿では,動的枠組みにおける実証的福祉最大化アプローチを提案する。
本手法は実験または準実験によるパネルデータから最適動的処理則を推定する。
本稿では,各段階の処理割当問題を後方帰納によって解き,各段階の動的処理割当問題全体を同時に解く2つの推定法を提案する。
提案手法の最低ケース平均福祉率について有限サンプル上限を導出し,$n^{-1/2}$-minimax収束率を示す。
また、時間的予算/容量制約を組み込むために同時推定法を変更する。
関連論文リスト
- Stage-Aware Learning for Dynamic Treatments [4.033641609534417]
動的治療体制のための新しい個別化学習法を提案する。
我々は、観察された治療軌跡と、決定段階にわたって最適な状態から得られるものとの整合性に重点を置いている。
観測軌道が最適処理と完全に一致しなければならないという制約を緩和することにより,本手法は逆確率重み付け法のサンプル効率と安定性を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T06:35:31Z) - TCFimt: Temporal Counterfactual Forecasting from Individual Multiple
Treatment Perspective [50.675845725806724]
個別多面的治療の観点からの時間的対実予測の包括的枠組み(TCFimt)を提案する。
TCFimtは、選択と時間変化バイアスを軽減するためにSeq2seqフレームワークの逆タスクを構築し、比較学習ベースのブロックを設計し、混合処理効果を分離した主治療効果と因果相互作用に分解する。
提案手法は, 特定の治療法による今後の結果予測と, 最先端手法よりも最適な治療タイプとタイミングを選択する上で, 良好な性能を示す。
論文 参考訳(メタデータ) (2022-12-17T15:01:05Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - Continuous-Time Modeling of Counterfactual Outcomes Using Neural
Controlled Differential Equations [84.42837346400151]
反現実的な結果を予測することは、パーソナライズされたヘルスケアをアンロックする可能性がある。
既存の因果推論アプローチでは、観察と治療決定の間の通常の離散時間間隔が考慮されている。
そこで本研究では,腫瘍増殖モデルに基づく制御可能なシミュレーション環境を提案する。
論文 参考訳(メタデータ) (2022-06-16T17:15:15Z) - Application-Driven Learning: A Closed-Loop Prediction and Optimization
Approach Applied to Dynamic Reserves and Demand Forecasting [62.997667081978825]
我々は、予測と意思決定のプロセスが統合され、協調最適化される新しいクローズドループフレームワークであるアプリケーション駆動学習を提案する。
提案手法は拡張性があり,標準のオープンループ手法よりも一貫して性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-26T02:43:28Z) - Evaluating (weighted) dynamic treatment effects by double machine
learning [0.12891210250935145]
本研究では,データ駆動方式で動的処理の因果効果を評価する。
いわゆるNeyman-orthogonal score関数を用いて,中等度(局所的な)不特定性に対する治療効果推定の頑健さを示唆する。
推定子は正規に正規であり、特定の条件下では$sqrtn$-consistentであることを示す。
論文 参考訳(メタデータ) (2020-12-01T09:55:40Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z) - Learning Continuous Treatment Policy and Bipartite Embeddings for
Matching with Heterogeneous Causal Effects [8.525061716196424]
現在の方法では、単一の結果次元の処理効果に基づいて二項のイエスまたはノーの決定を行う。
本稿では, パラメトリザブルモデルとしての処理の有効性を定式化し, 様々な処理強度と複雑さにまで拡張することを提案する。
深層学習を利用して, 1次元の処理を非現実的に予測する代わりに, 所望の総体距離空間を最適化する。
論文 参考訳(メタデータ) (2020-04-21T01:36:20Z) - Generalization Bounds and Representation Learning for Estimation of
Potential Outcomes and Causal Effects [61.03579766573421]
代替薬に対する患者一人の反応など,個人レベルの因果効果の推定について検討した。
我々は,表現の誘導的処理群距離を正規化することにより,境界を最小化する表現学習アルゴリズムを考案した。
これらのアルゴリズムを拡張して、重み付き表現を同時に学習し、治療群距離をさらに削減する。
論文 参考訳(メタデータ) (2020-01-21T10:16:33Z) - Multicategory Angle-based Learning for Estimating Optimal Dynamic
Treatment Regimes with Censored Data [12.499787110182632]
最適な治療体制(DTR)は、長期的な利益を最大化するための一連の決定規則から構成される。
本稿では,マルチカテゴリ処理フレームワークを用いて,最適DTRをターゲットとした新しい角度ベースアプローチを提案する。
本稿では,条件付き生存関数の最大化の観点から,提案手法が競合手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T05:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。