論文の概要: Interpretable Machine Learning for Resource Allocation with Application to Ventilator Triage
- arxiv url: http://arxiv.org/abs/2110.10994v2
- Date: Mon, 11 Nov 2024 16:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:19:12.797534
- Title: Interpretable Machine Learning for Resource Allocation with Application to Ventilator Triage
- Title(参考訳): 資源配分のための解釈可能な機械学習と人工呼吸器トレージへの応用
- Authors: Julien Grand-Clément, You Hui Goh, Carri Chan, Vineet Goyal, Elizabeth Chuang,
- Abstract要約: 不足する救命資源をトリアージするための明確なガイドラインは、透明性、信頼、一貫性を促進するために設計されなければならない。
我々はマルコフ決定プロセスのポリシーに基づく解釈可能なトリアージガイドラインを計算するための新しいデータ駆動モデルを提案する。
人工呼吸器の不足に伴う過度の死亡件数は,我々の方針により著しく減少する可能性が示唆された。
- 参考スコア(独自算出の注目度): 6.751130449661001
- License:
- Abstract: Rationing of healthcare resources is a challenging decision that policy makers and providers may be forced to make during a pandemic, natural disaster, or mass casualty event. Well-defined guidelines to triage scarce life-saving resources must be designed to promote transparency, trust, and consistency. To facilitate buy-in and use during high-stress situations, these guidelines need to be interpretable and operational. We propose a novel data-driven model to compute interpretable triage guidelines based on policies for Markov Decision Process that can be represented as simple sequences of decision trees ("tree policies"). In particular, we characterize the properties of optimal tree policies and present an algorithm based on dynamic programming recursions to compute good tree policies. We utilize this methodology to obtain simple, novel triage guidelines for ventilator allocations for COVID-19 patients, based on real patient data from Montefiore hospitals. We also compare the performance of our guidelines to the official New York State guidelines that were developed in 2015 (well before the COVID-19 pandemic). Our empirical study shows that the number of excess deaths associated with ventilator shortages could be reduced significantly using our policy. Our work highlights the limitations of the existing official triage guidelines, which need to be adapted specifically to COVID-19 before being successfully deployed.
- Abstract(参考訳): 医療資源の合理化は、政策立案者や提供者がパンデミック、自然災害、または大量災害の期間中に強制される可能性があるという難しい決断である。
不足する救命資源をトリアージするための明確なガイドラインは、透明性、信頼、一貫性を促進するために設計されなければならない。
高ストレス時の購入と利用を容易にするためには、これらのガイドラインを解釈し、運用する必要がある。
本稿では,マルコフ決定プロセスのポリシーに基づいた解釈可能なトリアージガイドラインを,単純な決定木のシーケンスとして表現可能な新しいデータ駆動モデルを提案する。
特に,最適なツリーポリシーの特性を特徴付けるとともに,動的プログラミング再帰に基づくアルゴリズムを提案する。
本手法を用いて,モンテフィオーレ病院の実際の患者データに基づいて,新型コロナウイルス患者に対する人工呼吸器配置のための簡便なトリアージガイドラインを得た。
また、私たちのガイドラインのパフォーマンスを、2015年に(新型コロナウイルスのパンデミックの直前に)開発されたニューヨーク州の公式ガイドラインと比較します。
人工呼吸器の不足に伴う過度の死亡件数は,我々の方針により著しく減少する可能性が示唆された。
私たちの研究は、既存のトリアージガイドラインの限界を強調しています。
関連論文リスト
- Leveraging graph neural networks for supporting Automatic Triage of
Patients [5.864579168378686]
本稿では,救急部門における緊急コード割り当てを管理するためのAIベースのモジュールを提案する。
バイタルサイン、症状、医療史などの関連する患者情報を含むデータは、患者をトリアージカテゴリーに正確に分類するために使用される。
論文 参考訳(メタデータ) (2024-03-11T09:54:35Z) - Reinforcement Learning with Human Feedback: Learning Dynamic Choices via
Pessimism [91.52263068880484]
人間のフィードバックを用いたオフライン強化学習(RLHF)について検討する。
我々は、人間の選択によって引き起こされる一連の軌道から、人間の根底にある報酬とMDPの最適政策を学習することを目指している。
RLHFは、大きな状態空間だが人間のフィードバックが限られていること、人間の決定の有界な合理性、政治外の分散シフトなど、さまざまな理由から挑戦されている。
論文 参考訳(メタデータ) (2023-05-29T01:18:39Z) - Policy Optimization for Personalized Interventions in Behavioral Health [8.10897203067601]
デジタルプラットフォームを通じて提供される行動的健康介入は、健康結果を大幅に改善する可能性がある。
患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討した。
患者システムの状態空間を個別のレベルに分解するDecompPIをダブする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-21T21:42:03Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Relative Sparsity for Medical Decision Problems [0.0]
医療提供者や患者に対して、新しい方針が現在のケアの基準とどのように異なるかを説明することが重要であることが多い。
我々は,lambda$を選択し,シミュレーションを行い,実際の医療データセットを用いて本手法を説明するための基準を提案する。
論文 参考訳(メタデータ) (2022-11-29T20:00:11Z) - Offline Reinforcement Learning with Closed-Form Policy Improvement
Operators [88.54210578912554]
行動制約付きポリシー最適化は、オフライン強化学習に対処するための成功パラダイムであることが示されている。
本稿では,閉形式政策改善演算子を提案する。
我々は、標準的なD4RLベンチマークにおいて、最先端アルゴリズムに対するそれらの効果を実証的に実証した。
論文 参考訳(メタデータ) (2022-11-29T06:29:26Z) - Policy Learning with Asymmetric Counterfactual Utilities [0.6138671548064356]
非対称対実効関数を用いた最適政策学習について検討する。
最大電力損失を最小にすることで、最小限の決定ルールを導出する。
中間分類問題を解くことにより、観測データから最小損失決定ルールを学習できることが示される。
論文 参考訳(メタデータ) (2022-06-21T15:44:49Z) - Model Selection for Offline Reinforcement Learning: Practical
Considerations for Healthcare Settings [13.376364233897528]
強化学習は治療方針を学習し、医療における意思決定を支援するために用いられる。
モデル選択のための標準的な検証パイプラインは、実際の環境で学習したポリシーを実行する必要がある。
我々の研究は、オフラインのRLモデル選択のための実用的なガイドとして機能し、実世界のデータセットを使用してRL実践者がポリシーを選択するのに役立つ。
論文 参考訳(メタデータ) (2021-07-23T02:41:51Z) - Post-Contextual-Bandit Inference [57.88785630755165]
コンテキストバンディットアルゴリズムは、電子商取引、医療、政策立案における非適応的なA/Bテストを置き換える傾向にある。
研究参加者の成果を改善することもでき、良い方針や最良の政策を特定できる可能性を高めることもできる。
研究の終盤における新規介入の信頼性推論を支援するため, 平均治療効果, サブグループ効果, あるいは新政策の価値について, 有効な信頼区間を構築したい。
論文 参考訳(メタデータ) (2021-06-01T12:01:51Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。