論文の概要: Reinforcement Learning For Survival, A Clinically Motivated Method For
Critically Ill Patients
- arxiv url: http://arxiv.org/abs/2207.08040v2
- Date: Tue, 19 Jul 2022 22:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 10:51:58.070360
- Title: Reinforcement Learning For Survival, A Clinically Motivated Method For
Critically Ill Patients
- Title(参考訳): 重症心身障害患者に対する臨床動機づけ手法である生存支援のための強化学習
- Authors: Thesath Nanayakkara
- Abstract要約: 本稿では,重篤な患者に対する臨床的動機づけ型コントロール目標を提案する。
我々は,大規模なコホート実験を行い,臨床知識と整合した結果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been considerable interest in leveraging RL and stochastic control
methods to learn optimal treatment strategies for critically ill patients,
directly from observational data. However, there is significant ambiguity on
the control objective and on the best reward choice for the standard RL
objective. In this work, we propose a clinically motivated control objective
for critically ill patients, for which the value functions have a simple
medical interpretation. Further, we present theoretical results and adapt our
method to a practical Deep RL algorithm, which can be used alongside any value
based Deep RL method. We experiment on a large sepsis cohort and show that our
method produces results consistent with clinical knowledge.
- Abstract(参考訳): 重症患者に対する最適な治療戦略を観察データから直接学ぶために、rlと確率的制御法を活用することには、かなりの関心が寄せられている。
しかし、制御目的と標準RL目標に対する最高の報酬選択には、大きな曖昧さがある。
本研究は,本研究の目的である重症心疾患患者に対する臨床的動機付け制御目標を提案する。
さらに,理論的な結果を示し,任意の値に基づくdeep rl法と並行して使用できる実用的なdeep rlアルゴリズムに適用する。
我々は,大規模な敗血症コホートを用いて実験を行い,臨床知識と一致した結果が得られることを示した。
関連論文リスト
- Measurement Scheduling for ICU Patients with Offline Reinforcement
Learning [16.07235754244993]
研究によると、ICUで注文された検査の20-40%は冗長であり、患者の安全を損なうことなく排除できる。
これまでの研究はオフライン強化学習(Offline-RL)を利用して、患者情報に基づく検査の順序付けに最適なポリシーを見つけてきた。
その後、新しいICU患者データセットがリリースされ、Offline-RL法で様々な進歩がなされた。
論文 参考訳(メタデータ) (2024-02-12T00:22:47Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning
Approach to Critical Care [68.8204255655161]
我々は、より信頼性の高いクリティカルケアポリシーを得ることができる深いQ-ラーニングアプローチを導入する。
まず、利用可能なすべての報酬に基づいてアクションセットを抽出し、次に、スパース主報酬に基づいて最終モデルを訓練し、制限されたアクションセットで達成する。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Efficient Deep Reinforcement Learning Requires Regulating Overfitting [91.88004732618381]
本稿では,高時間差(TD)誤差が深部RLアルゴリズムの性能に悪影響を及ぼす主要な原因であることを示す。
検証TDエラーをターゲットとした簡単なオンラインモデル選択法は,状態ベースDMCおよびGymタスク間で有効であることを示す。
論文 参考訳(メタデータ) (2023-04-20T17:11:05Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Simplifying Model-based RL: Learning Representations, Latent-space
Models, and Policies with One Objective [142.36200080384145]
自己整合性を維持しつつ高いリターンを達成するために,潜在空間モデルとポリシーを協調的に最適化する単一目的を提案する。
得られたアルゴリズムは, モデルベースおよびモデルフリーRL手法のサンプル効率に適合するか, 改善することを示した。
論文 参考訳(メタデータ) (2022-09-18T03:51:58Z) - Optimal discharge of patients from intensive care via a data-driven
policy learning framework [58.720142291102135]
退院課題は、退院期間の短縮と退院決定後の退院や死亡のリスクとの不確実なトレードオフに対処することが重要である。
本研究は、このトレードオフを捉えるためのエンドツーエンドの汎用フレームワークを導入し、最適放電タイミング決定を推奨する。
データ駆動型アプローチは、患者の生理的状態を捉えた同種で離散的な状態空間表現を導出するために用いられる。
論文 参考訳(メタデータ) (2021-12-17T04:39:33Z) - Assessment of Treatment Effect Estimators for Heavy-Tailed Data [70.72363097550483]
ランダム化制御試験(RCT)における治療効果の客観的評価における中心的な障害は、その性能をテストするための基礎的真理(または検証セット)の欠如である。
この課題に対処するための新しいクロスバリデーションのような方法論を提供する。
本手法は,Amazonサプライチェーンに実装された709RCTに対して評価を行った。
論文 参考訳(メタデータ) (2021-12-14T17:53:01Z) - Trajectory Inspection: A Method for Iterative Clinician-Driven Design of
Reinforcement Learning Studies [5.5302127686575435]
モデルベースRL研究において,臨床医を反復的設計プロセスに組み込むための簡単なアプローチであるトラジェクトリ・インスペクション(trajectory inspection)を強調した。
モデルが予想外のアグレッシブな治療を推奨するか、あるいはその推奨から驚くほどポジティブな結果を期待するかを特定します。
論文 参考訳(メタデータ) (2020-10-08T22:03:01Z) - Learning Individualized Treatment Rules with Estimated Translated
Inverse Propensity Score [29.606141542532356]
本稿では、個別化された治療規則(ITR)を学習して治療方針を導出することに焦点を当てる。
本フレームワークでは,ITRの学習を文脈的盗聴問題とみなし,治療方針の予測リスクを最小限に抑える。
長期的目標として、当社の方針は、最終的にはIVおよびVPの治験ガイドラインの改善につながる可能性がある。
論文 参考訳(メタデータ) (2020-07-02T13:13:56Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。