論文の概要: Methodology for Interpretable Reinforcement Learning for Optimizing Mechanical Ventilation
- arxiv url: http://arxiv.org/abs/2404.03105v1
- Date: Wed, 3 Apr 2024 23:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 16:12:59.513280
- Title: Methodology for Interpretable Reinforcement Learning for Optimizing Mechanical Ventilation
- Title(参考訳): 機械式換気の最適化のための解釈型強化学習法
- Authors: Joo Seung Lee, Malini Mahendra, Anil Aswani,
- Abstract要約: 本稿では,機械的換気制御のための決定木を用いた強化学習手法を提案する。
MIMIC-IIIデータを用いたリアル患者の集中治療室の滞在状況に関する数値実験により,決定木方針が行動クローニング方針より優れていることが示された。
- 参考スコア(独自算出の注目度): 2.3349787245442966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mechanical ventilation is a critical life-support intervention that uses a machine to deliver controlled air and oxygen to a patient's lungs, assisting or replacing spontaneous breathing. While several data-driven approaches have been proposed to optimize ventilator control strategies, they often lack interpretability and agreement with general domain knowledge. This paper proposes a methodology for interpretable reinforcement learning (RL) using decision trees for mechanical ventilation control. Using a causal, nonparametric model-based off-policy evaluation, we evaluate the policies in their ability to gain increases in SpO2 while avoiding aggressive ventilator settings which are known to cause ventilator induced lung injuries and other complications. Numerical experiments using MIMIC-III data on the stays of real patients' intensive care unit stays demonstrate that the decision tree policy outperforms the behavior cloning policy and is comparable to state-of-the-art RL policy. Future work concerns better aligning the cost function with medical objectives to generate deeper clinical insights.
- Abstract(参考訳): 機械的換気は、機械を用いて患者の肺に制御された空気と酸素を供給し、自然呼吸を補助または置き換える重要な生命維持介入である。
人工呼吸器の制御戦略を最適化するためのデータ駆動型アプローチがいくつか提案されているが、解釈可能性や一般的なドメイン知識との整合性が欠如していることが多い。
本稿では,機械的換気制御のための決定木を用いた強化学習(RL)の方法論を提案する。
原因的非パラメトリックモデルに基づくオフポリチック評価を用いて,SpO2の上昇と,人工呼吸器による肺障害などの合併症を引き起こすと知られている積極的人工呼吸器設定の回避を図った。
MIMIC-IIIデータを用いたリアル患者の集中治療室の滞在状況に関する数値実験は、決定木ポリシーが行動クローニングポリシーを上回り、最先端のRLポリシーに匹敵することを示した。
今後の作業は、コスト関数と医療目的との整合性を改善し、より深い臨床的洞察を生み出すことである。
関連論文リスト
- A Hybrid Data-Driven Approach For Analyzing And Predicting Inpatient Length Of Stay In Health Centre [0.0]
本研究は,患者フローの最適化のためのオール・エンコンパス・フレームワークを提案する。
我々は、230万件の未確認患者記録の包括的なデータセットを用いて、人口統計、診断、治療、サービス、費用、料金を分析した。
本モデルでは,患者の入院時間(LoS)を教師付き学習アルゴリズムを用いて予測する。
論文 参考訳(メタデータ) (2025-01-30T18:01:48Z) - Distribution-Free Uncertainty Quantification in Mechanical Ventilation Treatment: A Conformal Deep Q-Learning Framework [2.5070297884580874]
本研究では,集中治療室における機械的換気を最適化するための,分布自由な共形深度Q-ラーニング手法であるConformalDQNを紹介する。
我々はMIMIC-IVデータベースからICU患者記録を用いてモデルを訓練・評価した。
論文 参考訳(メタデータ) (2024-12-17T06:55:20Z) - Optimal Control of Mechanical Ventilators with Learned Respiratory Dynamics [38.26324086792883]
本稿では,急性呼吸障害症候群に対する人工呼吸器の使用経験を逐次的意思決定の課題として捉えた。
我々はARDSnetプロトコルに含まれる臨床ガイドラインに基づいてコントローラを実装し比較する。
確立されたARDSヘルスマーカーにおける測定値の改善点から,性能を評価する。
論文 参考訳(メタデータ) (2024-11-12T17:51:45Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Towards Safe Mechanical Ventilation Treatment Using Deep Offline
Reinforcement Learning [35.10140674005337]
DeepVentは、保守的なQ-Learning(CQL)ベースのオフラインのDeep Reinforcement Learning(DRL)エージェントで、90日間の生存を促進するための最適な人工呼吸器パラメータを予測することを学習する。
DeepVentは、最近の臨床試験で概説されているように、安全な範囲で換気パラメータを推奨している。
CQLアルゴリズムは、アウト・オブ・ディストリビューション状態/アクションの値推定の過大評価を緩和することで、さらなる安全性を提供する。
論文 参考訳(メタデータ) (2022-10-05T20:41:17Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Machine Learning for Mechanical Ventilation Control (Extended Abstract) [52.65490904484772]
機械的換気はICUで最も広く用いられている治療法の1つである。
人工呼吸器は、所定の気道圧の軌跡に従って患者の肺に空気を注入しなければならない。
データ駆動型アプローチは、人工呼吸器から収集したデータに基づいて訓練されたシミュレーターをトレーニングすることで、侵襲的人工呼吸器を制御することを学ぶ。
この方法は、一般的な強化学習アルゴリズムより優れており、PIDよりも正確で堅牢な物理的換気装置も制御できる。
論文 参考訳(メタデータ) (2021-11-19T20:54:41Z) - Discrete Action On-Policy Learning with Action-Value Critic [72.20609919995086]
離散的な行動空間における強化学習(RL)は、実世界の応用では至るところで行われているが、その複雑さは行動空間次元とともに指数関数的に増大する。
我々は,行動値関数を推定し,相関行動に適用し,これらの評価値を組み合わせて勾配推定の分散を制御する。
これらの取り組みにより、分散制御技術に頼って、関連するRLアルゴリズムを実証的に上回る、新たな離散的なRLアルゴリズムが実現される。
論文 参考訳(メタデータ) (2020-02-10T04:23:09Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。