論文の概要: Identifying Distinct, Effective Treatments for Acute Hypotension with
SODA-RL: Safely Optimized Diverse Accurate Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2001.03224v1
- Date: Thu, 9 Jan 2020 21:10:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:31:39.355641
- Title: Identifying Distinct, Effective Treatments for Acute Hypotension with
SODA-RL: Safely Optimized Diverse Accurate Reinforcement Learning
- Title(参考訳): soda-rlによる急性血圧低下症の鑑別的・効果的な治療 : 高度に最適化された多彩な強化学習
- Authors: Joseph Futoma, Muhammad A. Masood, Finale Doshi-Velez
- Abstract要約: 我々は, 安全な最適化, ディバース, 精度の高い強化学習を行うSODA-RLを開発し, 個別の治療法を識別する。
高血圧の発症地である10,142 ICUのコホート上でSODA-RLを実証した。
- 参考スコア(独自算出の注目度): 31.738875816149605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hypotension in critical care settings is a life-threatening emergency that
must be recognized and treated early. While fluid bolus therapy and
vasopressors are common treatments, it is often unclear which interventions to
give, in what amounts, and for how long. Observational data in the form of
electronic health records can provide a source for helping inform these choices
from past events, but often it is not possible to identify a single best
strategy from observational data alone. In such situations, we argue it is
important to expose the collection of plausible options to a provider. To this
end, we develop SODA-RL: Safely Optimized, Diverse, and Accurate Reinforcement
Learning, to identify distinct treatment options that are supported in the
data. We demonstrate SODA-RL on a cohort of 10,142 ICU stays where hypotension
presented. Our learned policies perform comparably to the observed physician
behaviors, while providing different, plausible alternatives for treatment
decisions.
- Abstract(参考訳): クリティカルケア設定における低血圧は、早期に認識され治療されなければならない生命を脅かす緊急事態である。
体液療法や血管抑制薬は一般的な治療法であるが、どの介入がどの量、どのくらいの時間を与えるかはよく分かっていない。
電子健康記録の形式での観察データは、過去の出来事からこれらの選択を知らせる情報源を提供することができるが、観察データだけでは最良の戦略を特定できないことが多い。
このような状況では、信頼できるオプションのコレクションをプロバイダに公開することが重要です。
この目的のために, 安全な最適化, ディバース, 正確な強化学習を行うSODA-RLを開発した。
低血圧が呈する10,142 icuのコホート上にsoda-rlを示す。
我々の学習した政策は、観察された医師の行動と相性が良いが、治療決定に異なる、妥当な代替手段を提供する。
関連論文リスト
- A Contrastive Pretrain Model with Prompt Tuning for Multi-center Medication Recommendation [50.43785306804359]
マルチセンター医薬品推奨のためのTEMPT(Prompt Tuning)を用いた新しいconTrastive prEtrain Modelを提案する。
そこで我々は,一般的なファインタニングを採用するのではなく,各病院の特定情報をキャプチャするための新しいプロンプトチューニング手法を考案した。
提案モデルを検証するため,公立のeICU多施設医療データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2024-12-28T06:12:02Z) - The Blessings of Multiple Treatments and Outcomes in Treatment Effect
Estimation [53.81860494566915]
既存の研究では、プロキシ変数や複数の処理を利用してバイアスを補正している。
多くの実世界のシナリオでは、複数の結果に対する影響を研究することにより大きな関心がある。
この設定に関わる複数の結果の並列研究は、因果同定において互いに助け合うことが示されている。
論文 参考訳(メタデータ) (2023-09-29T14:33:48Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Learning Optimal Treatment Strategies for Sepsis Using Offline
Reinforcement Learning in Continuous Space [4.031538204818658]
本稿では,臨床医がリアルタイム治療に最適な基準選択を推奨するのに役立つ,歴史的データに基づく新しい医療決定モデルを提案する。
本モデルでは, オフライン強化学習と深層強化学習を組み合わせることで, 医療における従来の強化学習が環境と相互作用できない問題に対処する。
論文 参考訳(メタデータ) (2022-06-22T16:17:21Z) - Ambiguous Dynamic Treatment Regimes: A Reinforcement Learning Approach [0.0]
動的処理レジーム(DTR)は、このプロセスの形式化のために広く研究されている。
最適な治療体制を効率的に学習するための強化学習法を開発した。
論文 参考訳(メタデータ) (2021-12-08T20:22:04Z) - Continuous Treatment Recommendation with Deep Survival Dose Response
Function [3.705291460388999]
臨床生存データを用いた環境下での継続的治療推奨問題に対する一般的な定式化を提案する。
DeepSDRFによる処理効果の推定により,選択バイアスを補正したレコメンデータアルゴリズムの開発が可能となる。
医学的文脈における観察データによる継続的な治療効果に因果モデルが使用されるのは、これが初めてである。
論文 参考訳(メタデータ) (2021-08-24T00:19:04Z) - Offline reinforcement learning with uncertainty for treatment strategies
in sepsis [0.0]
本稿では,データから敗血症治療に最適な推奨事項を抽出する強化学習の新たな応用法を提案する。
提案手法は1つのレコメンデーションではなく,いくつかの治療法を提示できる。
我々は,学習方針を検証し,死亡率と治療水準の相違により,強化学習が積極的な介入に偏っていることを明らかにする。
論文 参考訳(メタデータ) (2021-07-09T15:29:05Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Reinforcement learning and Bayesian data assimilation for model-informed
precision dosing in oncology [0.0]
現在の戦略はモデルインフォームドドッキングテーブルで構成されている。
ベイジアンデータ同化と/または強化学習を併用したMIPDのための新しい3つのアプローチを提案する。
これらのアプローチは、致命的グレード4と治療下グレード0のニュートロピーの発生を著しく減少させる可能性がある。
論文 参考訳(メタデータ) (2020-06-01T16:38:27Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。