論文の概要: Treatment Policy Learning in Multiobjective Settings with Fully Observed
Outcomes
- arxiv url: http://arxiv.org/abs/2006.00927v2
- Date: Thu, 13 Aug 2020 02:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:13:24.855928
- Title: Treatment Policy Learning in Multiobjective Settings with Fully Observed
Outcomes
- Title(参考訳): 完全観測結果をもつ多目的設定における治療政策学習
- Authors: Soorajnath Boominathan, Michael Oberst, Helen Zhou, Sanjat Kanjilal,
David Sontag
- Abstract要約: 個別化された治療方針を学習するための3つのアプローチを提示し、比較し、評価する。
我々は,全てのアプローチが臨床医よりも厳格に優れた成績を得られる政策を学習していることを示す。
- 参考スコア(独自算出の注目度): 6.944742823560999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In several medical decision-making problems, such as antibiotic prescription,
laboratory testing can provide precise indications for how a patient will
respond to different treatment options. This enables us to "fully observe" all
potential treatment outcomes, but while present in historical data, these
results are infeasible to produce in real-time at the point of the initial
treatment decision. Moreover, treatment policies in these settings often need
to trade off between multiple competing objectives, such as effectiveness of
treatment and harmful side effects. We present, compare, and evaluate three
approaches for learning individualized treatment policies in this setting:
First, we consider two indirect approaches, which use predictive models of
treatment response to construct policies optimal for different trade-offs
between objectives. Second, we consider a direct approach that constructs such
a set of policies without intermediate models of outcomes. Using a medical
dataset of Urinary Tract Infection (UTI) patients, we show that all approaches
learn policies that achieve strictly better performance on all outcomes than
clinicians, while also trading off between different objectives. We demonstrate
additional benefits of the direct approach, including flexibly incorporating
other goals such as deferral to physicians on simple cases.
- Abstract(参考訳): 抗生物質処方薬のようないくつかの医学的意思決定問題において、検査は患者が異なる治療オプションにどう反応するかを正確に示すことができる。
これにより、全ての治療成果を「十分に観察」することができるが、過去のデータでは、これらの結果は初期治療決定の時点でリアルタイムで生成できない。
さらに、これらの設定における治療方針は、治療の効果や有害な副作用など、複数の競合する目的の間でトレードオフする必要があることが多い。
本稿では, 個別化された治療方針を学習するための3つのアプローチを提示し, 比較し, 評価する: まず, 対象間のトレードオフに最適な政策を構築するために, 治療反応の予測モデルを用いる2つの間接的アプローチを検討する。
第二に、結果の中間モデルのないポリシーの集合を構成する直接的なアプローチを考える。
尿路感染症(UTI)患者の医学的データセットを用いて,すべてのアプローチが臨床医よりも厳格に優れた成績を得るための政策を学習し,異なる目的のトレードオフも示している。
我々は,単純症例に対する医師の退院などの他の目標を柔軟に取り入れることを含む,ダイレクトアプローチのさらなる利点を示す。
関連論文リスト
- The Blessings of Multiple Treatments and Outcomes in Treatment Effect
Estimation [53.81860494566915]
既存の研究では、プロキシ変数や複数の処理を利用してバイアスを補正している。
多くの実世界のシナリオでは、複数の結果に対する影響を研究することにより大きな関心がある。
この設定に関わる複数の結果の並列研究は、因果同定において互いに助け合うことが示されている。
論文 参考訳(メタデータ) (2023-09-29T14:33:48Z) - A Flexible Framework for Incorporating Patient Preferences Into
Q-Learning [1.2891210250935146]
現実の医療問題では、治療効果や副作用の重症度など、多くの競合する結果がしばしば存在する。
動的治療体制(DTR)を推定するための統計的手法は、通常、単一の関心の結果を仮定する。
これには、単一時点の制限と2つの結果、自己報告された患者の嗜好を組み込むことができないこと、理論的な保証が制限されていることが含まれる。
論文 参考訳(メタデータ) (2023-07-22T08:58:07Z) - Reliable Off-Policy Learning for Dosage Combinations [27.385663284378854]
パーソナライズド医療における意思決定は、しばしば服薬の組み合わせを選択する必要がある。
ドセージ・コンビネーションのための信頼性の高いオフ・ポリティクス学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T11:08:43Z) - TCFimt: Temporal Counterfactual Forecasting from Individual Multiple
Treatment Perspective [50.675845725806724]
個別多面的治療の観点からの時間的対実予測の包括的枠組み(TCFimt)を提案する。
TCFimtは、選択と時間変化バイアスを軽減するためにSeq2seqフレームワークの逆タスクを構築し、比較学習ベースのブロックを設計し、混合処理効果を分離した主治療効果と因果相互作用に分解する。
提案手法は, 特定の治療法による今後の結果予測と, 最先端手法よりも最適な治療タイプとタイミングを選択する上で, 良好な性能を示す。
論文 参考訳(メタデータ) (2022-12-17T15:01:05Z) - Causal Modeling of Policy Interventions From Sequences of Treatments and
Outcomes [5.107614397012659]
データ駆動意思決定は、ポリシーが変更されたときに何が起こるかを予測する能力を必要とする。
結果がどのように進化するかを予測する既存の方法は、将来の治療の仮のシーケンスが事前に固定されていると仮定する。
実際には、治療は政策によって決定され、以前の治療の効率に依存する可能性がある。
論文 参考訳(メタデータ) (2022-09-09T06:50:37Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Disentangled Counterfactual Recurrent Networks for Treatment Effect
Inference over Time [71.30985926640659]
本稿では,DCRN(Disentangled Counterfactual Recurrent Network)を提案する。
時間とともに治療効果の因果構造に完全にインスパイアされたアーキテクチャでは、予測精度と疾患理解が向上する。
実データとシミュレーションデータの両方において,DCRNが処理応答予測の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-12-07T16:40:28Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Learning Individualized Treatment Rules with Estimated Translated
Inverse Propensity Score [29.606141542532356]
本稿では、個別化された治療規則(ITR)を学習して治療方針を導出することに焦点を当てる。
本フレームワークでは,ITRの学習を文脈的盗聴問題とみなし,治療方針の予測リスクを最小限に抑える。
長期的目標として、当社の方針は、最終的にはIVおよびVPの治験ガイドラインの改善につながる可能性がある。
論文 参考訳(メタデータ) (2020-07-02T13:13:56Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z) - Generalization Bounds and Representation Learning for Estimation of
Potential Outcomes and Causal Effects [61.03579766573421]
代替薬に対する患者一人の反応など,個人レベルの因果効果の推定について検討した。
我々は,表現の誘導的処理群距離を正規化することにより,境界を最小化する表現学習アルゴリズムを考案した。
これらのアルゴリズムを拡張して、重み付き表現を同時に学習し、治療群距離をさらに削減する。
論文 参考訳(メタデータ) (2020-01-21T10:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。