論文の概要: Pareto-Optimal Estimation and Policy Learning on Short-term and
Long-term Treatment Effects
- arxiv url: http://arxiv.org/abs/2403.02624v2
- Date: Tue, 12 Mar 2024 06:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 00:24:33.540560
- Title: Pareto-Optimal Estimation and Policy Learning on Short-term and
Long-term Treatment Effects
- Title(参考訳): 短期的および長期的治療効果のパレート最適推定と政策学習
- Authors: Yingrong Wang, Anpeng Wu, Haoxuan Li, Weiming Liu, Qiaowei Miao,
Ruoxuan Xiong, Fei Wu, Kun Kuang
- Abstract要約: 短期的効果と長期的効果のトレードオフ、あるいは最適な治療を達成するための両者のトレードオフは、依然としてオープンな課題である。
本稿では,これらの問題を体系的に検討し,POEとPOPLを組み合わせたPareto-Efficientアルゴリズムを提案する。
合成と実世界の両方のデータセットで,本手法の優位性を実証した。
- 参考スコア(独自算出の注目度): 36.46155152979874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on developing Pareto-optimal estimation and policy
learning to identify the most effective treatment that maximizes the total
reward from both short-term and long-term effects, which might conflict with
each other. For example, a higher dosage of medication might increase the speed
of a patient's recovery (short-term) but could also result in severe long-term
side effects. Although recent works have investigated the problems about
short-term or long-term effects or the both, how to trade-off between them to
achieve optimal treatment remains an open challenge. Moreover, when multiple
objectives are directly estimated using conventional causal representation
learning, the optimization directions among various tasks can conflict as well.
In this paper, we systematically investigate these issues and introduce a
Pareto-Efficient algorithm, comprising Pareto-Optimal Estimation (POE) and
Pareto-Optimal Policy Learning (POPL), to tackle them. POE incorporates a
continuous Pareto module with representation balancing, enhancing estimation
efficiency across multiple tasks. As for POPL, it involves deriving short-term
and long-term outcomes linked with various treatment levels, facilitating an
exploration of the Pareto frontier emanating from these outcomes. Results on
both the synthetic and real-world datasets demonstrate the superiority of our
method.
- Abstract(参考訳): 本稿では,短期効果と長期効果の両方から得られる報酬を最大化する最も効果的な治療法を見極めるために,パレート最適推定法と政策学習法の開発に焦点をあてる。
例えば、薬の高用量では患者の回復速度(短期)が上昇するが、重度の長期的副作用を引き起こすこともある。
近年の研究では短期的あるいは長期的効果に関する問題やその両方について検討されているが、最適な治療を達成するためのトレードオフの方法がいまだに未解決の課題である。
さらに、従来の因果表現学習を用いて複数の目的を直接推定する場合、様々なタスク間の最適化方向も矛盾する可能性がある。
本稿では,これらの課題を体系的に検討し,パレートオプティカル推定(poe)とパレートオプティカルポリシー学習(popl)を組み合わせたパレート効率の高いアルゴリズムを提案する。
POEは、表現バランシングと複数のタスクにおける推定効率の向上を備えた連続的なParetoモジュールを組み込んでいる。
POPLについては、様々な治療レベルに関連する短期および長期の成果を導き出し、これらの結果から生じるパレートフロンティアの探索を促進する。
合成データと実世界のデータの両方の結果から,本手法の優越性が示された。
関連論文リスト
- Policy Learning for Balancing Short-Term and Long-Term Rewards [11.859587700058235]
本稿では,長期的成果の欠落を許容する最適政策を学習するための新しい枠組みを定式化する。
短期的な成果は、関連する場合、長期的な報酬バランスの推定能力の向上に寄与することを示す。
論文 参考訳(メタデータ) (2024-05-06T10:09:35Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - The Blessings of Multiple Treatments and Outcomes in Treatment Effect
Estimation [53.81860494566915]
既存の研究では、プロキシ変数や複数の処理を利用してバイアスを補正している。
多くの実世界のシナリオでは、複数の結果に対する影響を研究することにより大きな関心がある。
この設定に関わる複数の結果の並列研究は、因果同定において互いに助け合うことが示されている。
論文 参考訳(メタデータ) (2023-09-29T14:33:48Z) - A Flexible Framework for Incorporating Patient Preferences Into
Q-Learning [1.2891210250935146]
現実の医療問題では、治療効果や副作用の重症度など、多くの競合する結果がしばしば存在する。
動的治療体制(DTR)を推定するための統計的手法は、通常、単一の関心の結果を仮定する。
これには、単一時点の制限と2つの結果、自己報告された患者の嗜好を組み込むことができないこと、理論的な保証が制限されていることが含まれる。
論文 参考訳(メタデータ) (2023-07-22T08:58:07Z) - TCFimt: Temporal Counterfactual Forecasting from Individual Multiple
Treatment Perspective [50.675845725806724]
個別多面的治療の観点からの時間的対実予測の包括的枠組み(TCFimt)を提案する。
TCFimtは、選択と時間変化バイアスを軽減するためにSeq2seqフレームワークの逆タスクを構築し、比較学習ベースのブロックを設計し、混合処理効果を分離した主治療効果と因果相互作用に分解する。
提案手法は, 特定の治療法による今後の結果予測と, 最先端手法よりも最適な治療タイプとタイミングを選択する上で, 良好な性能を示す。
論文 参考訳(メタデータ) (2022-12-17T15:01:05Z) - Long-term Causal Inference Under Persistent Confounding via Data Combination [38.026740610259225]
実験データと観測データの両方が利用可能である場合の長期治療効果の同定と推定について検討した。
長期の成果は長期間の遅延後にのみ観測されるため、実験データでは測定されず、観測データでのみ記録される。
論文 参考訳(メタデータ) (2022-02-15T07:44:20Z) - Disentangled Counterfactual Recurrent Networks for Treatment Effect
Inference over Time [71.30985926640659]
本稿では,DCRN(Disentangled Counterfactual Recurrent Network)を提案する。
時間とともに治療効果の因果構造に完全にインスパイアされたアーキテクチャでは、予測精度と疾患理解が向上する。
実データとシミュレーションデータの両方において,DCRNが処理応答予測の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-12-07T16:40:28Z) - SurvITE: Learning Heterogeneous Treatment Effects from Time-to-Event
Data [83.50281440043241]
時系列データから不均一な処理効果を推定する問題について検討する。
本稿では,バランス表現に基づく治療特異的ハザード推定のための新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T20:13:17Z) - Stochastic Intervention for Causal Inference via Reinforcement Learning [7.015556609676951]
因果推論の中心は介入戦略の処理効果推定である。
既存の方法はほとんどが決定論的治療に限られており、異なる治療下での結果を比較する。
介入に対する治療効果を推定するための新しい効果的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-05-28T00:11:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。