論文の概要: Formally Verifying and Explaining Sepsis Treatment Policies with COOL-MC
- arxiv url: http://arxiv.org/abs/2602.14505v1
- Date: Mon, 16 Feb 2026 06:37:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.234519
- Title: Formally Verifying and Explaining Sepsis Treatment Policies with COOL-MC
- Title(参考訳): COOL-MCによる敗血症治療薬の形式的検証と説明
- Authors: Dennis Gross,
- Abstract要約: COOL-MCは、訓練されたポリシーによって誘導される到達可能な状態空間のみを構築するモデルチェッカーである。
完全MDP解析が難解である場合でも、より小さな離散時間マルコフ連鎖を検証できる。
約17,000人の敗血症患者の記録から得られた指標であるICU-Sepsis MDPでCOOL-MCの能力を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safe and interpretable sequential decision-making is critical in healthcare, yet reinforcement learning (RL) policies for sepsis treatment optimization remain opaque and difficult to verify. Standard probabilistic model checkers operate on the full state space, which becomes infeasible for larger MDPs, and cannot explain why a learned policy makes particular decisions. COOL-MC wraps the model checker Storm but adds three key capabilities: it constructs only the reachable state space induced by a trained policy, yielding a smaller discrete-time Markov chain amenable to verification even when full-MDP analysis is intractable; it automatically labels states with clinically meaningful atomic propositions; and it integrates explainability methods with probabilistic computation tree logic (PCTL) queries to reveal which features drive decisions across treatment trajectories. We demonstrate COOL-MC's capabilities on the ICU-Sepsis MDP, a benchmark derived from approximately 17,000 sepsis patient records, which serves as a case study for applying COOL-MC to the formal analysis of sepsis treatment policies. Our analysis establishes hard bounds via full MDP verification, trains a safe RL policy that achieves optimal survival probability, and analyzes its behavior via PCTL verification and explainability on the induced DTMC. This reveals, for instance, that our trained policy relies predominantly on prior dosing history rather than the patient's evolving condition, a weakness that is invisible to standard evaluation but is exposed by COOL-MC's integration of formal verification and explainability. Our results illustrate how COOL-MC could serve as a tool for clinicians to investigate and debug sepsis treatment policies before deployment.
- Abstract(参考訳): 安全かつ解釈可能なシーケンシャルな意思決定は医療において重要であるが、敗血症治療最適化のための強化学習(RL)ポリシーは不透明で検証が難しいままである。
標準的な確率論的モデルチェッカーは、より大きなMDPでは不可能になり、学習されたポリシーが特別な決定を下す理由を説明することができない、完全な状態空間で動作する。
COOL-MC はモデルチェッカー Storm をラップするが、3つの重要な機能を追加する: トレーニングされたポリシーによって誘導される到達可能な状態空間のみを構築し、フルMDP 分析が難解な場合でも検証可能な離散時間 Markov チェーンを得る; 状態に臨床的に意味のあるアトミックな命題を自動ラベル付けする; 確率論的計算ツリーロジック (PCTL) クエリと説明可能性メソッドを統合して、処理軌跡間の決定を駆動する機能を明らかにする。
ICU-Sepsis MDP(約17,000人の敗血症患者の記録から得られたベンチマーク)でCOOL-MCの能力を実証し、敗血症治療方針の形式的分析にCOOL-MCを適用するケーススタディとして機能する。
本分析は, 完全MDP検証によるハードバウンドを確立し, 最適生存確率を実現する安全なRLポリシーを訓練し, 誘導DTMC上でのPCTL検証と説明可能性を用いてその挙動を解析する。
これは、例えば、トレーニングされた政策が患者の進行状態ではなく、先行投与履歴に大きく依存していることを明らかにし、これは標準的な評価には見えないが、COOL-MCの形式的検証と説明可能性の統合によって明らかになる。
以上の結果から,COOL-MCは,デプロイ前の敗血症治療方針を調査・デバッグするためのツールとして有効である可能性が示唆された。
関連論文リスト
- An Agentic Model Context Protocol Framework for Medical Concept Standardization [5.12407270785129]
モデルコンテキストプロトコル(MCP)に基づくゼロトレーニング・幻覚防止マッピングシステムの開発
このシステムは説明可能なマッピングを可能にし、最小限の労力で効率と精度を大幅に改善する。
論文 参考訳(メタデータ) (2025-09-04T02:32:22Z) - Distribution-Free Uncertainty Quantification in Mechanical Ventilation Treatment: A Conformal Deep Q-Learning Framework [2.5070297884580874]
本研究では,集中治療室における機械的換気を最適化するための,分布自由な共形深度Q-ラーニング手法であるConformalDQNを紹介する。
我々はMIMIC-IVデータベースからICU患者記録を用いてモデルを訓練・評価した。
論文 参考訳(メタデータ) (2024-12-17T06:55:20Z) - ICU-Sepsis: A Benchmark MDP Built from Real Medical Data [17.94461385543479]
本稿では、強化学習(RL)アルゴリズムを評価するためのベンチマークで使用できるICU-Sepsisについて述べる。
近年, セプシス管理は応用RL研究において重要な課題となっている。
論文 参考訳(メタデータ) (2024-06-09T05:11:00Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning Approach to Critical Care [46.2482873419289]
我々は、より信頼性の高いクリティカルケアポリシーを得るための深いQ-ラーニングアプローチを導入する。
本手法を,集中治療室のシミュレーション環境と実際の健康記録を用いて,オフライン・オフ・セッティングで評価した。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Robust and Agnostic Learning of Conditional Distributional Treatment Effects [44.31792000298105]
問題クラスに対する条件付きDTE(Conditional DTE)を学習するための、新しい堅牢でモデルに依存しない方法論を提供する。
本手法は回帰モデルクラスにCDTEの最良のプロジェクションを提供することができるため,モデルに依存しない。
シミュレーションにおける提案手法の挙動と,富に対する401(k)の適格性の影響を事例として検討した。
論文 参考訳(メタデータ) (2022-05-23T17:40:31Z) - Proximal Reinforcement Learning: Efficient Off-Policy Evaluation in
Partially Observed Markov Decision Processes [65.91730154730905]
医療や教育などの観察データへのオフライン強化学習の適用においては、観察された行動は観測されていない要因に影響される可能性があるという一般的な懸念がある。
ここでは、部分的に観察されたマルコフ決定過程(POMDP)における非政治評価を考慮し、この問題に取り組む。
我々は、近位因果推論の枠組みをPOMDP設定に拡張し、識別が可能となる様々な設定を提供する。
論文 参考訳(メタデータ) (2021-10-28T17:46:14Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z) - MPC-guided Imitation Learning of Neural Network Policies for the
Artificial Pancreas [7.019683407682642]
我々は、Imitation Learningを用いて神経ネットワークインスリンポリシーを合成するAP制御に新しいアプローチを導入する。
このようなポリシーは計算的に効率的であり、訓練時に完全な状態情報でMPCを計測することで、測定結果を最適な治療決定にマッピングすることができる。
特定の患者モデルの下で訓練されたコントロールポリシーは,患者コホートに対して容易に(モデルパラメータや外乱分布の観点から)一般化できることが示唆された。
論文 参考訳(メタデータ) (2020-03-03T01:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。