論文の概要: Development and Validation of Heparin Dosing Policies Using an Offline Reinforcement Learning Algorithm
- arxiv url: http://arxiv.org/abs/2409.15753v1
- Date: Tue, 24 Sep 2024 05:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 08:51:16.998598
- Title: Development and Validation of Heparin Dosing Policies Using an Offline Reinforcement Learning Algorithm
- Title(参考訳): オフライン強化学習アルゴリズムを用いたヘパリン投与法の開発と検証
- Authors: Yooseok Lim, Inbeom Park, Sujee Lee,
- Abstract要約: 本研究では,強化学習に基づくパーソナライズされたヘパリン投与ポリシーを提案する。
オフラインRL環境における分配エラーを最小限に抑えるため,バッチ制約ポリシを実装した。
本研究はヘパリン投与の実践を強化し、医学における高度な意思決定支援ツールの開発の前例を確立する。
- 参考スコア(独自算出の注目度): 0.7519918949973486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Appropriate medication dosages in the intensive care unit (ICU) are critical for patient survival. Heparin, used to treat thrombosis and inhibit blood clotting in the ICU, requires careful administration due to its complexity and sensitivity to various factors, including patient clinical characteristics, underlying medical conditions, and potential drug interactions. Incorrect dosing can lead to severe complications such as strokes or excessive bleeding. To address these challenges, this study proposes a reinforcement learning (RL)-based personalized optimal heparin dosing policy that guides dosing decisions reliably within the therapeutic range based on individual patient conditions. A batch-constrained policy was implemented to minimize out-of-distribution errors in an offline RL environment and effectively integrate RL with existing clinician policies. The policy's effectiveness was evaluated using weighted importance sampling, an off-policy evaluation method, and the relationship between state representations and Q-values was explored using t-SNE. Both quantitative and qualitative analyses were conducted using the Medical Information Mart for Intensive Care III (MIMIC-III) database, demonstrating the efficacy of the proposed RL-based medication policy. Leveraging advanced machine learning techniques and extensive clinical data, this research enhances heparin administration practices and establishes a precedent for the development of sophisticated decision-support tools in medicine.
- Abstract(参考訳): 集中治療室(ICU)の適切な薬物服用は、患者の生存に不可欠である。
ヘパリンは、血栓症を治療し、ICUの血液凝固を阻害するために用いられるが、その複雑さと、患者の臨床特性、基礎となる医療条件、薬物相互作用などの様々な要因に対する感受性のために、慎重に投与する必要がある。
誤投与は脳卒中や過度の出血などの重篤な合併症を引き起こすことがある。
これらの課題に対処するために, 患者個別の条件に基づいて, 治療範囲内において確実に決定を下すための, パーソナライズされたパーソナライズされたヘパリン投与ポリシーを提案する。
オフラインのRL環境におけるアウト・オブ・ディストリビューションエラーを最小限に抑え,既存の診療方針とRLを効果的に統合するために,バッチ制約ポリシを実装した。
政策の有効性を重み付けされた重要度サンプリング,非政治評価法を用いて評価し, 状態表現とQ値の関係をt-SNEを用いて検討した。
The Medical Information Mart for Intensive Care III (MIMIC-III) database を用いて定量および定性解析を行った。
先進的な機械学習技術と広範な臨床データを活用することにより、ヘパリン投与の実践が促進され、医学における高度な意思決定支援ツールの開発の前例が確立される。
関連論文リスト
- OMG-RL:Offline Model-based Guided Reward Learning for Heparin Treatment [0.4998632546280975]
本研究は,臨床医の意図を反映した報酬関数の開発に焦点をあてる。
限られたデータから専門家の意図を含むパラメータ化された報酬関数を学習する。
このアプローチはヘパリン服薬問題だけでなく、一般のRLベースの薬物服薬タスクにも広く利用することができる。
論文 参考訳(メタデータ) (2024-09-20T07:51:37Z) - Safe and Interpretable Estimation of Optimal Treatment Regimes [54.257304443780434]
我々は、最適な治療体制を特定するための安全かつ解釈可能な枠組みを運用する。
本研究は患者の医療歴と薬理学的特徴に基づくパーソナライズされた治療戦略を支援する。
論文 参考訳(メタデータ) (2023-10-23T19:59:10Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning Approach to Critical Care [46.2482873419289]
我々は、より信頼性の高いクリティカルケアポリシーを得るための深いQ-ラーニングアプローチを導入する。
本手法を,集中治療室のシミュレーション環境と実際の健康記録を用いて,オフライン・オフ・セッティングで評価した。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Towards Real-World Applications of Personalized Anesthesia Using Policy
Constraint Q Learning for Propofol Infusion Control [11.07500653906137]
Policy Constraint Q-Learning(PCQL)は、実際の臨床データセットで麻酔戦略を学習する問題を解決するための、データ駆動型強化学習アルゴリズムである。
PCQLは、実際の臨床麻酔データセットに関する広範な実験によって検証される。
論文 参考訳(メタデータ) (2023-03-17T10:05:20Z) - Reinforcement Learning For Survival, A Clinically Motivated Method For
Critically Ill Patients [0.0]
本稿では,重篤な患者に対する臨床的動機づけ型コントロール目標を提案する。
我々は,大規模なコホート実験を行い,臨床知識と整合した結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-17T00:06:09Z) - Optimal discharge of patients from intensive care via a data-driven
policy learning framework [58.720142291102135]
退院課題は、退院期間の短縮と退院決定後の退院や死亡のリスクとの不確実なトレードオフに対処することが重要である。
本研究は、このトレードオフを捉えるためのエンドツーエンドの汎用フレームワークを導入し、最適放電タイミング決定を推奨する。
データ駆動型アプローチは、患者の生理的状態を捉えた同種で離散的な状態空間表現を導出するために用いられる。
論文 参考訳(メタデータ) (2021-12-17T04:39:33Z) - Deep Learning for Virtual Screening: Five Reasons to Use ROC Cost
Functions [80.12620331438052]
深層学習は サイリコの何十億もの分子を 迅速にスクリーニングする 重要なツールとなりました
その重要性にもかかわらず、厳密なクラス不均衡、高い決定しきい値、いくつかのデータセットにおける基底真理ラベルの欠如など、これらのモデルのトレーニングにおいて重大な課題が続いている。
このような場合、クラス不均衡に対するロバスト性から、レシーバ動作特性(ROC)を直接最適化することを好んで論じる。
論文 参考訳(メタデータ) (2020-06-25T08:46:37Z) - Reinforcement learning and Bayesian data assimilation for model-informed
precision dosing in oncology [0.0]
現在の戦略はモデルインフォームドドッキングテーブルで構成されている。
ベイジアンデータ同化と/または強化学習を併用したMIPDのための新しい3つのアプローチを提案する。
これらのアプローチは、致命的グレード4と治療下グレード0のニュートロピーの発生を著しく減少させる可能性がある。
論文 参考訳(メタデータ) (2020-06-01T16:38:27Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z) - Contextual Constrained Learning for Dose-Finding Clinical Trials [102.8283665750281]
C3T-Budget(C3T-Budget)は、予算と安全性の両方の制約の下での線量フィリングのための文脈制約付き臨床試験アルゴリズムである。
残りの予算、残業時間、各グループの特徴を考慮して患者を募集する。
論文 参考訳(メタデータ) (2020-01-08T11:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。