論文の概要: Methodology for Interpretable Reinforcement Learning for Optimizing Mechanical Ventilation
- arxiv url: http://arxiv.org/abs/2404.03105v1
- Date: Wed, 3 Apr 2024 23:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 16:12:59.513280
- Title: Methodology for Interpretable Reinforcement Learning for Optimizing Mechanical Ventilation
- Title(参考訳): 機械式換気の最適化のための解釈型強化学習法
- Authors: Joo Seung Lee, Malini Mahendra, Anil Aswani,
- Abstract要約: 本稿では,機械的換気制御のための決定木を用いた強化学習手法を提案する。
MIMIC-IIIデータを用いたリアル患者の集中治療室の滞在状況に関する数値実験により,決定木方針が行動クローニング方針より優れていることが示された。
- 参考スコア(独自算出の注目度): 2.3349787245442966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mechanical ventilation is a critical life-support intervention that uses a machine to deliver controlled air and oxygen to a patient's lungs, assisting or replacing spontaneous breathing. While several data-driven approaches have been proposed to optimize ventilator control strategies, they often lack interpretability and agreement with general domain knowledge. This paper proposes a methodology for interpretable reinforcement learning (RL) using decision trees for mechanical ventilation control. Using a causal, nonparametric model-based off-policy evaluation, we evaluate the policies in their ability to gain increases in SpO2 while avoiding aggressive ventilator settings which are known to cause ventilator induced lung injuries and other complications. Numerical experiments using MIMIC-III data on the stays of real patients' intensive care unit stays demonstrate that the decision tree policy outperforms the behavior cloning policy and is comparable to state-of-the-art RL policy. Future work concerns better aligning the cost function with medical objectives to generate deeper clinical insights.
- Abstract(参考訳): 機械的換気は、機械を用いて患者の肺に制御された空気と酸素を供給し、自然呼吸を補助または置き換える重要な生命維持介入である。
人工呼吸器の制御戦略を最適化するためのデータ駆動型アプローチがいくつか提案されているが、解釈可能性や一般的なドメイン知識との整合性が欠如していることが多い。
本稿では,機械的換気制御のための決定木を用いた強化学習(RL)の方法論を提案する。
原因的非パラメトリックモデルに基づくオフポリチック評価を用いて,SpO2の上昇と,人工呼吸器による肺障害などの合併症を引き起こすと知られている積極的人工呼吸器設定の回避を図った。
MIMIC-IIIデータを用いたリアル患者の集中治療室の滞在状況に関する数値実験は、決定木ポリシーが行動クローニングポリシーを上回り、最先端のRLポリシーに匹敵することを示した。
今後の作業は、コスト関数と医療目的との整合性を改善し、より深い臨床的洞察を生み出すことである。
関連論文リスト
- Machine learning-based algorithms for at-home respiratory disease monitoring and respiratory assessment [45.104212062055424]
本研究の目的は、在宅呼吸器疾患のモニタリングと評価を容易にする機械学習ベースのアルゴリズムを開発することである。
健常成人30名を対象に, 呼吸圧, 血流, 胸腹部周囲の動的計測を行った。
ランダムフォレスト分類器、ロジスティック回帰、サポートベクターマシン(SVM)など、さまざまな機械学習モデルをトレーニングし、呼吸タイプを予測する。
論文 参考訳(メタデータ) (2024-09-05T02:14:31Z) - Comparison of Model Predictive Control and Proximal Policy Optimization for a 1-DOF Helicopter System [0.7499722271664147]
本研究は,Quanser Aero 2システムに適用された深層強化学習(DRL)アルゴリズムであるモデル予測制御(MPC)とPPOの比較分析を行う。
PPOは上昇時間と適応性に優れており、迅速な応答と適応性を必要とするアプリケーションには有望なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:35:34Z) - Distilling Reinforcement Learning Policies for Interpretable Robot Locomotion: Gradient Boosting Machines and Symbolic Regression [53.33734159983431]
本稿では, ニューラルRLポリシをより解釈可能な形式に蒸留する新しい手法を提案する。
我々は、RLを用いて専門家のニューラルネットワークポリシーを訓練し、(i)GBM、(ii)EBM、(iii)シンボリックポリシーに蒸留する。
論文 参考訳(メタデータ) (2024-03-21T11:54:45Z) - A Meta-Learning Method for Estimation of Causal Excursion Effects to Assess Time-Varying Moderation [0.0]
本稿では,メタ・ラーナーの観点からの因果抽出効果の推定について再検討する。
提案する推定器の特性を理論的および広範囲なシミュレーションにより比較する。
その結果, 相対効率が向上し, 既存手法の2倍頑健な代替案が提案された。
論文 参考訳(メタデータ) (2023-06-28T15:19:33Z) - Towards Safe Mechanical Ventilation Treatment Using Deep Offline
Reinforcement Learning [35.10140674005337]
DeepVentは、保守的なQ-Learning(CQL)ベースのオフラインのDeep Reinforcement Learning(DRL)エージェントで、90日間の生存を促進するための最適な人工呼吸器パラメータを予測することを学習する。
DeepVentは、最近の臨床試験で概説されているように、安全な範囲で換気パラメータを推奨している。
CQLアルゴリズムは、アウト・オブ・ディストリビューション状態/アクションの値推定の過大評価を緩和することで、さらなる安全性を提供する。
論文 参考訳(メタデータ) (2022-10-05T20:41:17Z) - POETREE: Interpretable Policy Learning with Adaptive Decision Trees [78.6363825307044]
POETREEは、ポリシー学習を解釈するための新しいフレームワークである。
患者の観察と医療史に基づいて、医師の行動を決定する確率的ツリーポリシーを構築する。
これは、リアルおよび合成医療データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2022-03-15T16:50:52Z) - Optimal discharge of patients from intensive care via a data-driven
policy learning framework [58.720142291102135]
退院課題は、退院期間の短縮と退院決定後の退院や死亡のリスクとの不確実なトレードオフに対処することが重要である。
本研究は、このトレードオフを捉えるためのエンドツーエンドの汎用フレームワークを導入し、最適放電タイミング決定を推奨する。
データ駆動型アプローチは、患者の生理的状態を捉えた同種で離散的な状態空間表現を導出するために用いられる。
論文 参考訳(メタデータ) (2021-12-17T04:39:33Z) - Machine Learning for Mechanical Ventilation Control (Extended Abstract) [52.65490904484772]
機械的換気はICUで最も広く用いられている治療法の1つである。
人工呼吸器は、所定の気道圧の軌跡に従って患者の肺に空気を注入しなければならない。
データ駆動型アプローチは、人工呼吸器から収集したデータに基づいて訓練されたシミュレーターをトレーニングすることで、侵襲的人工呼吸器を制御することを学ぶ。
この方法は、一般的な強化学習アルゴリズムより優れており、PIDよりも正確で堅牢な物理的換気装置も制御できる。
論文 参考訳(メタデータ) (2021-11-19T20:54:41Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。