論文の概要: Measurement Scheduling for ICU Patients with Offline Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2402.07344v1
- Date: Mon, 12 Feb 2024 00:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 16:08:25.300653
- Title: Measurement Scheduling for ICU Patients with Offline Reinforcement
Learning
- Title(参考訳): オフライン強化学習における ICU の計測スケジューリング
- Authors: Zongliang Ji, Anna Goldenberg, Rahul G. Krishnan
- Abstract要約: 研究によると、ICUで注文された検査の20-40%は冗長であり、患者の安全を損なうことなく排除できる。
これまでの研究はオフライン強化学習(Offline-RL)を利用して、患者情報に基づく検査の順序付けに最適なポリシーを見つけてきた。
その後、新しいICU患者データセットがリリースされ、Offline-RL法で様々な進歩がなされた。
- 参考スコア(独自算出の注目度): 16.07235754244993
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Scheduling laboratory tests for ICU patients presents a significant
challenge. Studies show that 20-40% of lab tests ordered in the ICU are
redundant and could be eliminated without compromising patient safety. Prior
work has leveraged offline reinforcement learning (Offline-RL) to find optimal
policies for ordering lab tests based on patient information. However, new ICU
patient datasets have since been released, and various advancements have been
made in Offline-RL methods. In this study, we first introduce a preprocessing
pipeline for the newly-released MIMIC-IV dataset geared toward time-series
tasks. We then explore the efficacy of state-of-the-art Offline-RL methods in
identifying better policies for ICU patient lab test scheduling. Besides
assessing methodological performance, we also discuss the overall suitability
and practicality of using Offline-RL frameworks for scheduling laboratory tests
in ICU settings.
- Abstract(参考訳): ICU患者の臨床検査のスケジューリングは重要な課題である。
研究によると、ICUで注文された検査の20-40%は冗長であり、患者の安全を損なうことなく排除できる。
先行研究はオフライン強化学習(オフライン-rl)を利用して、患者情報に基づいた検査検査の順序付けに最適なポリシーを見つける。
しかし、その後新たなICU患者データセットがリリースされ、Offline-RL法で様々な進歩がなされた。
本研究では,まず,時系列タスクを対象としたMIMIC-IVデータセットの事前処理パイプラインを提案する。
次に,最先端のオフラインrl手法がicu患者研究室テストスケジューリングのより良いポリシーを同定する効果について検討する。
方法論的性能の評価に加えて、ICU設定における実験室試験のスケジューリングにOffline-RLフレームワークを用いることの全体的な適合性や実用性についても検討する。
関連論文リスト
- Development and Validation of Heparin Dosing Policies Using an Offline Reinforcement Learning Algorithm [0.7519918949973486]
本研究では,強化学習に基づくパーソナライズされたヘパリン投与ポリシーを提案する。
オフラインRL環境における分配エラーを最小限に抑えるため,バッチ制約ポリシを実装した。
本研究はヘパリン投与の実践を強化し、医学における高度な意思決定支援ツールの開発の前例を確立する。
論文 参考訳(メタデータ) (2024-09-24T05:20:38Z) - OMG-RL:Offline Model-based Guided Reward Learning for Heparin Treatment [0.4998632546280975]
本研究は,臨床医の意図を反映した報酬関数の開発に焦点をあてる。
限られたデータから専門家の意図を含むパラメータ化された報酬関数を学習する。
このアプローチはヘパリン服薬問題だけでなく、一般のRLベースの薬物服薬タスクにも広く利用することができる。
論文 参考訳(メタデータ) (2024-09-20T07:51:37Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning Approach to Critical Care [46.2482873419289]
我々は、より信頼性の高いクリティカルケアポリシーを得るための深いQ-ラーニングアプローチを導入する。
本手法を,集中治療室のシミュレーション環境と実際の健康記録を用いて,オフライン・オフ・セッティングで評価した。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Efficient Deep Reinforcement Learning Requires Regulating Overfitting [91.88004732618381]
本稿では,高時間差(TD)誤差が深部RLアルゴリズムの性能に悪影響を及ぼす主要な原因であることを示す。
検証TDエラーをターゲットとした簡単なオンラインモデル選択法は,状態ベースDMCおよびGymタスク間で有効であることを示す。
論文 参考訳(メタデータ) (2023-04-20T17:11:05Z) - Deep Offline Reinforcement Learning for Real-world Treatment
Optimization Applications [3.770564448216192]
オフラインRLトレーニングにおける動作不均衡に対処するための,実践的かつ理論的に基礎的な遷移サンプリング手法を提案する。
糖尿病と敗血症治療最適化のための2つの現実的課題について広範な実験を行った。
本提案手法は, 様々な原則および臨床関連指標を用いて, 期待される健康影響を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2023-02-15T09:30:57Z) - Reinforcement Learning For Survival, A Clinically Motivated Method For
Critically Ill Patients [0.0]
本稿では,重篤な患者に対する臨床的動機づけ型コントロール目標を提案する。
我々は,大規模なコホート実験を行い,臨床知識と整合した結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-17T00:06:09Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - Importance of Empirical Sample Complexity Analysis for Offline
Reinforcement Learning [55.90351453865001]
オフラインデータから学習するサンプルの数に依存しているかどうかを問う。
我々の目的は、オフラインRLのサンプル複雑性の研究が重要であり、既存のオフラインアルゴリズムの有用性を示す指標である点を強調することである。
論文 参考訳(メタデータ) (2021-12-31T18:05:33Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。