論文の概要: Challenges for Reinforcement Learning in Healthcare
- arxiv url: http://arxiv.org/abs/2103.05612v1
- Date: Tue, 9 Mar 2021 18:34:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 04:42:29.844645
- Title: Challenges for Reinforcement Learning in Healthcare
- Title(参考訳): 医療における強化学習の課題
- Authors: Elsa Riachi, Muhammad Mamdani, Michael Fralick, Frank Rudzicz
- Abstract要約: 強化学習エージェントは、医師に治療の推奨を提供するように訓練することができる。
しかし、rlをベンチマーク環境を超えて使用する場合、多くの困難が発生する。
- 参考スコア(独自算出の注目度): 13.569317350274408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many healthcare decisions involve navigating through a multitude of treatment
options in a sequential and iterative manner to find an optimal treatment
pathway with the goal of an optimal patient outcome. Such optimization problems
may be amenable to reinforcement learning. A reinforcement learning agent could
be trained to provide treatment recommendations for physicians, acting as a
decision support tool. However, a number of difficulties arise when using RL
beyond benchmark environments, such as specifying the reward function, choosing
an appropriate state representation and evaluating the learned policy.
- Abstract(参考訳): 多くのヘルスケアの決定は、多数の治療オプションを連続的かつ反復的にナビゲートし、最適な患者の結果を達成するために最適な治療経路を見つけます。
このような最適化問題は強化学習に有効かもしれない。
強化学習エージェントは、意思決定支援ツールとして作用し、医師に治療の推奨を提供するように訓練することができる。
しかし、報酬関数の指定、適切な状態表現の選択、学習ポリシーの評価など、ベンチマーク環境を超えてRLを使用する場合、多くの困難が発生する。
関連論文リスト
- Pruning the Path to Optimal Care: Identifying Systematically Suboptimal Medical Decision-Making with Inverse Reinforcement Learning [14.688842697886484]
本稿では, 同僚の行動に基づいて, 最適な臨床行為を識別する逆強化学習の新たな応用法を提案する。
このアプローチはIRLの2つの段階を中心とし、コンセンサスから大きく逸脱する行動を示す軌跡をプーンする中間段階を持つ。
論文 参考訳(メタデータ) (2024-11-07T23:16:59Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Safe and Interpretable Estimation of Optimal Treatment Regimes [54.257304443780434]
我々は、最適な治療体制を特定するための安全かつ解釈可能な枠組みを運用する。
本研究は患者の医療歴と薬理学的特徴に基づくパーソナライズされた治療戦略を支援する。
論文 参考訳(メタデータ) (2023-10-23T19:59:10Z) - Optimal and Fair Encouragement Policy Evaluation and Learning [11.712023983596914]
本研究は, 陽性の潜在的な違反を含む最適治療規則の因果同定とロバストな評価について検討した。
一般制約下でのパラメタライズされたポリシークラスを解くための2段階のアルゴリズムを開発し、分散感応的後悔境界を求める。
本研究は, SNAP給付のリマインダーデータ, 保険申請の無作為化促進, および電子監視による事前管理リリースに基づく3つのケーススタディである。
論文 参考訳(メタデータ) (2023-09-12T20:45:30Z) - Learning Optimal Treatment Strategies for Sepsis Using Offline
Reinforcement Learning in Continuous Space [4.031538204818658]
本稿では,臨床医がリアルタイム治療に最適な基準選択を推奨するのに役立つ,歴史的データに基づく新しい医療決定モデルを提案する。
本モデルでは, オフライン強化学習と深層強化学習を組み合わせることで, 医療における従来の強化学習が環境と相互作用できない問題に対処する。
論文 参考訳(メタデータ) (2022-06-22T16:17:21Z) - A Conservative Q-Learning approach for handling distribution shift in
sepsis treatment strategies [0.0]
どんな介入が最善かについては合意が得られず、異なる患者が同じ治療に対して非常に異なる反応を示す。
深層強化学習法は、医師の行動を反映した治療戦略のための最適なポリシーを考案するために用いられる。
この方針は、集中治療室の診療医が敗血症患者を治療し、生存率を向上させる上でより良い判断を下すのに役立つ可能性がある。
論文 参考訳(メタデータ) (2022-03-25T19:50:18Z) - Optimal discharge of patients from intensive care via a data-driven
policy learning framework [58.720142291102135]
退院課題は、退院期間の短縮と退院決定後の退院や死亡のリスクとの不確実なトレードオフに対処することが重要である。
本研究は、このトレードオフを捉えるためのエンドツーエンドの汎用フレームワークを導入し、最適放電タイミング決定を推奨する。
データ駆動型アプローチは、患者の生理的状態を捉えた同種で離散的な状態空間表現を導出するために用いられる。
論文 参考訳(メタデータ) (2021-12-17T04:39:33Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Near-optimal Individualized Treatment Recommendations [9.585155938486048]
個別治療レコメンデーション(ITR)は、精密医療のための重要な分析フレームワークである。
結果重み付き学習(OWL)フレームワークにおける最適A-ITRを推定する2つの手法を提案する。
これらの手法の整合性を示し、理論的に最適である勧告と推定された提案のリスクの上限を求める。
論文 参考訳(メタデータ) (2020-04-06T15:59:33Z) - Opportunities of a Machine Learning-based Decision Support System for
Stroke Rehabilitation Assessment [64.52563354823711]
リハビリテーションアセスメントは、患者の適切な介入を決定するために重要である。
現在の評価の実践は、主にセラピストの経験に依存しており、セラピストの可用性が限られているため、アセスメントは頻繁に実施される。
我々は、強化学習を用いて評価の健全な特徴を識別できるインテリジェントな意思決定支援システムを開発した。
論文 参考訳(メタデータ) (2020-02-27T17:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。