論文の概要: Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation
- arxiv url: http://arxiv.org/abs/2003.06474v2
- Date: Wed, 18 Mar 2020 19:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:05:55.022130
- Title: Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation
- Title(参考訳): 集中治療における敗血症治療の最適化 : 強化学習から治療前評価まで
- Authors: Luchen Li, Ignacio Albert-Smet, and Aldo A. Faisal
- Abstract要約: 本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
- 参考スコア(独自算出の注目度): 2.908482270923597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our aim is to establish a framework where reinforcement learning (RL) of
optimizing interventions retrospectively allows us a regulatory compliant
pathway to prospective clinical testing of the learned policies in a clinical
deployment. We focus on infections in intensive care units which are one of the
major causes of death and difficult to treat because of the complex and opaque
patient dynamics, and the clinically debated, highly-divergent set of
intervention policies required by each individual patient, yet intensive care
units are naturally data rich. In our work, we build on RL approaches in
healthcare ("AI Clinicians"), and learn off-policy continuous dosing policy of
pharmaceuticals for sepsis treatment using historical intensive care data under
partially observable MDPs (POMDPs). POMPDs capture uncertainty in patient state
better by taking in all historical information, yielding an efficient
representation, which we investigate through ablations. We compensate for the
lack of exploration in our retrospective data by evaluating each encountered
state with a best-first tree search. We mitigate state distributional shift by
optimizing our policy in the vicinity of the clinicians' compound policy.
Crucially, we evaluate our model recommendations using not only conventional
policy evaluations but a novel framework that incorporates human experts: a
model-agnostic pre-clinical evaluation method to estimate the accuracy and
uncertainty of clinician's decisions versus our system recommendations when
confronted with the same individual patient history ("shadow mode").
- Abstract(参考訳): 本研究の目的は,インベンションを最適化する強化学習(rl)が,臨床展開における学習方針の今後の臨床検査への規制に準拠する経路を,遡及的に確立することにある。
我々は, 複雑で不透明な患者動態が原因で治療が困難である集中治療室における感染症と, 個々の患者が必要とする治療方針について, 臨床的に議論され, 高度に分断され, かつ集中治療室は自然にデータに富んでいることに焦点を当てた。
本研究は、医療におけるRLアプローチ(AI臨床医)の構築と、部分的に観察可能なMDP(POMDP)の下での歴史的集中治療データを用いた敗血症治療のための医薬の非政治的服用方針を学習する。
POMPDは、すべての歴史的情報を取り込み、効率的な表現をもたらすことで、患者の状態の不確実性をよりよく捉えます。
最優先のツリーサーチによって、遭遇した各状態を評価することで、振り返りデータにおける探索の欠如を補う。
我々は, 臨床医の複合政策近傍の政策を最適化することで, 状態分布の変化を緩和する。
要は,従来の政策評価だけでなく,臨床医の意思決定の正確さと不確実性を評価するための,モデルに依存しない事前臨床評価手法を,同一の患者履歴に直面する場合のシステムレコメンデーション(シャドウモード)と比較した。
関連論文リスト
- Safe and Interpretable Estimation of Optimal Treatment Regimes [54.257304443780434]
我々は、最適な治療体制を特定するための安全かつ解釈可能な枠組みを運用する。
本研究は患者の医療歴と薬理学的特徴に基づくパーソナライズされた治療戦略を支援する。
論文 参考訳(メタデータ) (2023-10-23T19:59:10Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Deep Attention Q-Network for Personalized Treatment Recommendation [1.6631602844999724]
パーソナライズされた治療レコメンデーションのためのDeep Attention Q-Networkを提案する。
深い強化学習フレームワーク内のTransformerアーキテクチャは、過去のすべての患者の観察を効率的に取り入れている。
実世界の敗血症と急性低血圧コホートにおけるモデルの評価を行い、最先端モデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2023-07-04T07:00:19Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning Approach to Critical Care [46.2482873419289]
我々は、より信頼性の高いクリティカルケアポリシーを得るための深いQ-ラーニングアプローチを導入する。
本手法を,集中治療室のシミュレーション環境と実際の健康記録を用いて,オフライン・オフ・セッティングで評価した。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Policy Optimization for Personalized Interventions in Behavioral Health [8.10897203067601]
デジタルプラットフォームを通じて提供される行動的健康介入は、健康結果を大幅に改善する可能性がある。
患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討した。
患者システムの状態空間を個別のレベルに分解するDecompPIをダブする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-21T21:42:03Z) - POETREE: Interpretable Policy Learning with Adaptive Decision Trees [78.6363825307044]
POETREEは、ポリシー学習を解釈するための新しいフレームワークである。
患者の観察と医療史に基づいて、医師の行動を決定する確率的ツリーポリシーを構築する。
これは、リアルおよび合成医療データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2022-03-15T16:50:52Z) - Optimal discharge of patients from intensive care via a data-driven
policy learning framework [58.720142291102135]
退院課題は、退院期間の短縮と退院決定後の退院や死亡のリスクとの不確実なトレードオフに対処することが重要である。
本研究は、このトレードオフを捉えるためのエンドツーエンドの汎用フレームワークを導入し、最適放電タイミング決定を推奨する。
データ駆動型アプローチは、患者の生理的状態を捉えた同種で離散的な状態空間表現を導出するために用いられる。
論文 参考訳(メタデータ) (2021-12-17T04:39:33Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Learning Individualized Treatment Rules with Estimated Translated
Inverse Propensity Score [29.606141542532356]
本稿では、個別化された治療規則(ITR)を学習して治療方針を導出することに焦点を当てる。
本フレームワークでは,ITRの学習を文脈的盗聴問題とみなし,治療方針の予測リスクを最小限に抑える。
長期的目標として、当社の方針は、最終的にはIVおよびVPの治験ガイドラインの改善につながる可能性がある。
論文 参考訳(メタデータ) (2020-07-02T13:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。