論文の概要: Ensuring Safety in Automated Mechanical Ventilation through Offline Reinforcement Learning and Digital Twin Verification
- arxiv url: http://arxiv.org/abs/2603.11372v1
- Date: Wed, 11 Mar 2026 23:21:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.712552
- Title: Ensuring Safety in Automated Mechanical Ventilation through Offline Reinforcement Learning and Digital Twin Verification
- Title(参考訳): オフライン強化学習とデジタル双確認による自動換気の安全性確保
- Authors: Hang Yu, Huidong Liu, Qingchen Zhang, William Joy, Kateryna Nikulina, Andreas A. Schuppert, Sina Saffaran, Declan Bates,
- Abstract要約: メカニカル換気(Mechanical ventilation, MV)は、ICUの急性呼吸不全(ARF)患者の救命介入である。
MVにパーソナライズと自動化を統合する以前の試みには、従来の教師付き学習とオフライン強化学習(RL)アプローチがある。
患者動態の時間的モデリングにトランスフォーマーエンコーダを統合する新しいオフラインRLフレームワークであるTransformer-based conservative Q-Learning (T-CQL)を提案する。
- 参考スコア(独自算出の注目度): 9.198591097391448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mechanical ventilation (MV) is a life-saving intervention for patients with acute respiratory failure (ARF) in the ICU. However, inappropriate ventilator settings could cause ventilator-induced lung injury (VILI). Also, clinicians workload is shown to be directly linked to patient outcomes. Hence, MV should be personalized and automated to improve patient outcomes. Previous attempts to incorporate personalization and automation in MV include traditional supervised learning and offline reinforcement learning (RL) approaches, which often neglect temporal dependencies and rely excessively on mortality-based rewards. As a result, early stage physiological deterioration and the risk of VILI are not adequately captured. To address these limitations, we propose Transformer-based Conservative Q-Learning (T-CQL), a novel offline RL framework that integrates a Transformer encoder for effective temporal modeling of patient dynamics, conservative adaptive regularization based on uncertainty quantification to ensure safety, and consistency regularization for robust decision-making. We build a clinically informed reward function that incorporates indicators of VILI and a score for severity of patients illness. Also, previous work predominantly uses Fitted Q-Evaluation (FQE) for RL policy evaluation on static offline data, which is less responsive to dynamic environmental changes and susceptible to distribution shifts. To overcome these evaluation limitations, interactive digital twins of ARF patients were used for online "at the bedside" evaluation. Our results demonstrate that T-CQL consistently outperforms existing state-of-the-art offline RL methodologies, providing safer and more effective ventilatory adjustments. Our framework demonstrates the potential of Transformer-based models combined with conservative RL strategies as a decision support tool in critical care.
- Abstract(参考訳): メカニカル換気(Mechanical ventilation, MV)は、ICUの急性呼吸不全(ARF)患者の救命介入である。
しかし、不適切な人工呼吸器の設定は、人工呼吸器による肺傷害(VILI)を引き起こす可能性がある。
また、臨床医の作業負荷は、患者の結果に直接関連していることが示されている。
したがって、MVは患者の結果を改善するためにパーソナライズされ、自動化されるべきである。
MVにパーソナライズと自動化を統合する以前の試みには、従来の教師付き学習とオフライン強化学習(RL)アプローチがあり、これは時間的依存を無視し、死亡率に基づく報酬に過度に依存することが多い。
その結果、早期の生理的劣化とVILIのリスクを適切に把握できない。
これらの制約に対処するために、トランスフォーマーベースの保守的Q-Learning(T-CQL)という、患者ダイナミクスの効果的な時間的モデリングのためのトランスフォーマーエンコーダを統合した新しいオフラインRLフレームワークを提案する。
我々は,VILIの指標と重症度スコアを組み込んだ臨床情報型報酬機能を構築した。
また、従来の研究は静的オフラインデータに対するRLポリシー評価にFQE(Fitted Q-Evaluation)を主に用いた。
これらの評価の限界を克服するため、ARF患者のインタラクティブデジタルツインをオンライン「ベッドサイド」評価に使用した。
以上の結果から,T-CQLは既存のオフラインRL手法より一貫して優れており,より安全で効率的な換気調整が可能であることが示唆された。
本フレームワークは,批判的ケアにおける意思決定支援ツールとして,トランスフォーマーモデルと保守的RL戦略を組み合わせた可能性を示す。
関連論文リスト
- Transparent Early ICU Mortality Prediction with Clinical Transformer and Per-Case Modality Attribution [42.85462513661566]
ICU滞在後48時間から, 生理的時系列測定と非構造的臨床記録とを融合した, 軽量で透明なマルチモーダルアンサンブルを提案する。
ロジスティック回帰モデルは、バイタル用双方向LSTMとノート用微調整された臨床ModernBERT変換器の2つのモード固有モデルからの予測を組み合わせる。
MIMIC-IIIベンチマークでは、遅延融合アンサンブルは、よく校正された予測を維持しながら、最高の単一モデルに対する差別を改善する。
論文 参考訳(メタデータ) (2025-11-19T20:11:49Z) - Guardian-regularized Safe Offline Reinforcement Learning for Smart Weaning of Mechanical Circulatory Devices [19.512275639322638]
心原性ショック患者における機械的循環補助装置の自動織りに関するシーケンシャル意思決定問題について検討した。
オフライン強化学習は、シーケンシャルな意思決定タスクで成功している。
2つの重要なコントリビューションを持つエンドツーエンドの機械学習フレームワークを開発します。
論文 参考訳(メタデータ) (2025-11-08T19:32:31Z) - Reinforcement Learning enhanced Online Adaptive Clinical Decision Support via Digital Twin powered Policy and Treatment Effect optimized Reward [3.3025649517524793]
本稿では、強化学習がポリシーを提供し、患者デジタルツインが環境を提供し、治療効果が報酬を定義するオンライン適応ツールを提案する。
人工臨床シミュレータの実験では、レイテンシの低下、スループットの安定、安全度の高いクエリ率の低下、標準値ベースラインに対するリターンの改善などが示されている。
論文 参考訳(メタデータ) (2025-08-24T04:51:22Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - IntelliLung: Advancing Safe Mechanical Ventilation using Offline RL with Hybrid Actions and Clinically Aligned Rewards [6.42339118295049]
集中治療室(ICU)における感染性機械換気(Invasive Mechanical ventilation, MV)は重症心疾患患者に対する生命維持療法である
現在の最先端(SOTA)法は、MVアクションのハイブリッドな(連続的で離散的な)性質に苦慮している。
本稿では、離散的な行動空間の課題に対処するために、行動空間削減における先行作業に基づいて構築される最適化を提案する。
論文 参考訳(メタデータ) (2025-06-17T10:17:26Z) - Q-PART: Quasi-Periodic Adaptive Regression with Test-time Training for Pediatric Left Ventricular Ejection Fraction Regression [45.69922532213079]
適応型左室エジェクション・フラクション(LVEF)の評価の課題に対処する。
我々はtextbfTest-time Training (Q-PART) フレームワークを用いた textbfQuasi-textbfPeriodic textbfAdaptive textbfRegression を提案する。
論文 参考訳(メタデータ) (2025-03-06T06:24:51Z) - ACL-QL: Adaptive Conservative Level in Q-Learning for Offline Reinforcement Learning [46.67828766038463]
本稿では,Q-Learning(ACL-QL)における適応保守レベル(Adaptive Conservative Level in Q-Learning, ACL-QL)を提案する。
ACL-QLは、各状態-作用ペアに対する保守的なレベルの適応的な制御を可能にする。
理論解析により,2つの学習可能な適応重み関数を用いて各遷移の保守レベルを制御する新しいアルゴリズム ACL-QL を提案する。
論文 参考訳(メタデータ) (2024-12-22T04:18:02Z) - Distribution-Free Uncertainty Quantification in Mechanical Ventilation Treatment: A Conformal Deep Q-Learning Framework [2.5070297884580874]
本研究では,集中治療室における機械的換気を最適化するための,分布自由な共形深度Q-ラーニング手法であるConformalDQNを紹介する。
我々はMIMIC-IVデータベースからICU患者記録を用いてモデルを訓練・評価した。
論文 参考訳(メタデータ) (2024-12-17T06:55:20Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning Approach to Critical Care [46.2482873419289]
我々は、より信頼性の高いクリティカルケアポリシーを得るための深いQ-ラーニングアプローチを導入する。
本手法を,集中治療室のシミュレーション環境と実際の健康記録を用いて,オフライン・オフ・セッティングで評価した。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Towards Safe Mechanical Ventilation Treatment Using Deep Offline
Reinforcement Learning [35.10140674005337]
DeepVentは、保守的なQ-Learning(CQL)ベースのオフラインのDeep Reinforcement Learning(DRL)エージェントで、90日間の生存を促進するための最適な人工呼吸器パラメータを予測することを学習する。
DeepVentは、最近の臨床試験で概説されているように、安全な範囲で換気パラメータを推奨している。
CQLアルゴリズムは、アウト・オブ・ディストリビューション状態/アクションの値推定の過大評価を緩和することで、さらなる安全性を提供する。
論文 参考訳(メタデータ) (2022-10-05T20:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。