論文の概要: Trajectory Inspection: A Method for Iterative Clinician-Driven Design of
Reinforcement Learning Studies
- arxiv url: http://arxiv.org/abs/2010.04279v2
- Date: Mon, 21 Dec 2020 19:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:32:57.790323
- Title: Trajectory Inspection: A Method for Iterative Clinician-Driven Design of
Reinforcement Learning Studies
- Title(参考訳): 軌道検査:強化学習研究における反復的臨床駆動設計法
- Authors: Christina X. Ji, Michael Oberst, Sanjat Kanjilal, David Sontag
- Abstract要約: モデルベースRL研究において,臨床医を反復的設計プロセスに組み込むための簡単なアプローチであるトラジェクトリ・インスペクション(trajectory inspection)を強調した。
モデルが予想外のアグレッシブな治療を推奨するか、あるいはその推奨から驚くほどポジティブな結果を期待するかを特定します。
- 参考スコア(独自算出の注目度): 5.5302127686575435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has the potential to significantly improve
clinical decision making. However, treatment policies learned via RL from
observational data are sensitive to subtle choices in study design. We
highlight a simple approach, trajectory inspection, to bring clinicians into an
iterative design process for model-based RL studies. We identify where the
model recommends unexpectedly aggressive treatments or expects surprisingly
positive outcomes from its recommendations. Then, we examine clinical
trajectories simulated with the learned model and policy alongside the actual
hospital course. Applying this approach to recent work on RL for sepsis
management, we uncover a model bias towards discharge, a preference for high
vasopressor doses that may be linked to small sample sizes, and clinically
implausible expectations of discharge without weaning off vasopressors. We hope
that iterations of detecting and addressing the issues unearthed by our method
will result in RL policies that inspire more confidence in deployment.
- Abstract(参考訳): 強化学習(rl)は臨床意思決定を著しく改善する可能性がある。
しかし、観察データからRLを介して学んだ治療方針は、研究設計における微妙な選択に敏感である。
モデルベースRL研究の反復的設計プロセスに臨床医を巻き込むための簡単なアプローチである軌道検査を強調した。
モデルが予想外のアグレッシブな治療を推奨するか、あるいはその推奨から驚くほどポジティブな結果を期待するかを特定します。
次に,実科と並行して学習モデルと方針をシミュレーションした臨床経過について検討した。
敗血症管理のためのrlに関する最近の研究にこのアプローチを適用することで、排出に対するモデルバイアス、少量のサンプルサイズに関連付けられる高バソプレッサー線量の選択、および、バソプレッサーを弱めることなく排出を臨床的に目立たない期待を明らかにすることができる。
当社の手法が発見した問題の検出と対処のイテレーションが,デプロイメントに対する信頼性を高めるためのRLポリシをもたらすことを期待しています。
関連論文リスト
- OMG-RL:Offline Model-based Guided Reward Learning for Heparin Treatment [0.4998632546280975]
本研究は,臨床医の意図を反映した報酬関数の開発に焦点をあてる。
限られたデータから専門家の意図を含むパラメータ化された報酬関数を学習する。
このアプローチはヘパリン服薬問題だけでなく、一般のRLベースの薬物服薬タスクにも広く利用することができる。
論文 参考訳(メタデータ) (2024-09-20T07:51:37Z) - Exploiting Causal Graph Priors with Posterior Sampling for Reinforcement Learning [86.22660674919746]
後部サンプリングは、環境の遷移力学に関する事前知識の活用を可能にする。
本稿では,環境変数に対する因果グラフとして先行値が与えられる新しい後方サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T14:16:04Z) - Multitask Deep Learning for Accurate Risk Stratification and Prediction
of Next Steps for Coronary CT Angiography Patients [26.50934421749854]
リスク階層化と下流テスト選択を支援するマルチタスク深層学習モデルを提案する。
提案手法は,CADのリスク層化において0.76AUC,下流試験では0.72AUCの受信機動作特性を持つCurve(AUC)のエリアを達成した。
論文 参考訳(メタデータ) (2023-09-01T08:34:13Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning Approach to Critical Care [46.2482873419289]
我々は、より信頼性の高いクリティカルケアポリシーを得るための深いQ-ラーニングアプローチを導入する。
本手法を,集中治療室のシミュレーション環境と実際の健康記録を用いて,オフライン・オフ・セッティングで評価した。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Deep learning methods for drug response prediction in cancer:
predominant and emerging trends [50.281853616905416]
がんを研究・治療するための計算予測モデルをエクスプロイトすることは、薬物開発の改善と治療計画のパーソナライズドデザインにおいて大きな可能性を秘めている。
最近の研究の波は、ディープラーニング手法を用いて、薬物治療に対するがん反応を予測するという有望な結果を示している。
このレビューは、この分野の現状をよりよく理解し、主要な課題と将来性のあるソリューションパスを特定します。
論文 参考訳(メタデータ) (2022-11-18T03:26:31Z) - Reinforcement Learning For Survival, A Clinically Motivated Method For
Critically Ill Patients [0.0]
本稿では,重篤な患者に対する臨床的動機づけ型コントロール目標を提案する。
我々は,大規模なコホート実験を行い,臨床知識と整合した結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-17T00:06:09Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Ambiguous Dynamic Treatment Regimes: A Reinforcement Learning Approach [0.0]
動的処理レジーム(DTR)は、このプロセスの形式化のために広く研究されている。
最適な治療体制を効率的に学習するための強化学習法を開発した。
論文 参考訳(メタデータ) (2021-12-08T20:22:04Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。