論文の概要: Controlling Level of Unconsciousness by Titrating Propofol with Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2008.12333v2
- Date: Wed, 9 Sep 2020 14:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 06:59:45.426907
- Title: Controlling Level of Unconsciousness by Titrating Propofol with Deep
Reinforcement Learning
- Title(参考訳): 深く強化学習したプロポフォールによる無意識の制御
- Authors: Gabe Schamberg, Marcus Badgeley, and Emery N. Brown
- Abstract要約: 強化学習は、患者の状態から薬局へのマッピングに適合するために用いられる。
Deep RLは、テーブルをディープニューラルネットワークに置き換え、レジストリデータベースから薬局を学習するために使用されている。
- 参考スコア(独自算出の注目度): 5.276232626689567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL) can be used to fit a mapping from patient state
to a medication regimen. Prior studies have used deterministic and value-based
tabular learning to learn a propofol dose from an observed anesthetic state.
Deep RL replaces the table with a deep neural network and has been used to
learn medication regimens from registry databases. Here we perform the first
application of deep RL to closed-loop control of anesthetic dosing in a
simulated environment. We use the cross-entropy method to train a deep neural
network to map an observed anesthetic state to a probability of infusing a
fixed propofol dosage. During testing, we implement a deterministic policy that
transforms the probability of infusion to a continuous infusion rate. The model
is trained and tested on simulated pharmacokinetic/pharmacodynamic models with
randomized parameters to ensure robustness to patient variability. The deep RL
agent significantly outperformed a proportional-integral-derivative controller
(median absolute performance error 1.7% +/- 0.6 and 3.4% +/- 1.2). Modeling
continuous input variables instead of a table affords more robust pattern
recognition and utilizes our prior domain knowledge. Deep RL learned a smooth
policy with a natural interpretation to data scientists and anesthesia care
providers alike.
- Abstract(参考訳): 強化学習(rl)は、患者の状態から薬物療法へのマッピングに適合するために用いられる。
以前の研究では、決定論的かつ価値に基づく表式学習を用いて、観察された麻酔状態からプロポフォールの服用を学習している。
Deep RLは、テーブルをディープニューラルネットワークに置き換え、レジストリデータベースから薬局を学習するために使用されている。
ここでは, 模擬環境下での麻酔薬の閉ループ制御に対する深部RLの最初の適用を行う。
クロスエントロピー法を用いて、深層ニューラルネットワークをトレーニングし、観察された麻酔状態を固定プロポフォール投与の確率にマッピングする。
検査中, 持続的輸液率へ輸液の確率を変換する決定論的ポリシーを実装した。
このモデルは、患者の変動性に対する堅牢性を確保するために、ランダムなパラメータを持つシミュレーションされた薬物動態/薬物力学モデルで訓練され、試験される。
ディープRLエージェントは比例積分微分制御器(中間絶対性能誤差 1.7% +/- 0.6 と 3.4% +/- 1.2 )を著しく上回った。
テーブルの代わりに連続的な入力変数をモデル化することは、より堅牢なパターン認識を可能にし、以前のドメイン知識を利用する。
deep rlは、データサイエンティストや麻酔医にも自然な解釈で、スムーズな方針を学んだ。
関連論文リスト
- Regressor-free Molecule Generation to Support Drug Response Prediction [83.25894107956735]
目標IC50スコアに基づく条件生成により、より効率的なサンプリングスペースを得ることができる。
回帰自由誘導は、拡散モデルのスコア推定と、数値ラベルに基づく回帰制御モデルの勾配を結合する。
論文 参考訳(メタデータ) (2024-05-23T13:22:17Z) - Physical formula enhanced multi-task learning for pharmacokinetics prediction [54.13787789006417]
AIによる薬物発見の大きな課題は、高品質なデータの不足である。
薬物動態の4つの重要なパラメータを同時に予測するPEMAL法を開発した。
実験の結果,PEMALは一般的なグラフニューラルネットワークに比べてデータ需要を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-04-16T07:42:55Z) - Instance-based Learning with Prototype Reduction for Real-Time
Proportional Myocontrol: A Randomized User Study Demonstrating
Accuracy-preserving Data Reduction for Prosthetic Embedded Systems [0.0]
本研究は, 義肢制御におけるジェスチャー検出のためのkNNスキームに基づく学習手法の設計, 実装, 検証を行う。
8チャンネルSEMGアームバンドを用いて,パラメータ化と比例スキームの変化の影響を解析した。
論文 参考訳(メタデータ) (2023-08-21T20:15:35Z) - A Transformer-based Prediction Method for Depth of Anesthesia During
Target-controlled Infusion of Propofol and Remifentanil [2.960339091215942]
本稿では,プロポフォールとレミフェンタニルの薬物注入による麻酔深度予測法を提案する。
実験の結果,提案手法は従来のPK-PDモデルや従来のディープラーニング手法よりも優れていた。
論文 参考訳(メタデータ) (2023-08-02T13:49:44Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Towards Real-World Applications of Personalized Anesthesia Using Policy
Constraint Q Learning for Propofol Infusion Control [11.07500653906137]
Policy Constraint Q-Learning(PCQL)は、実際の臨床データセットで麻酔戦略を学習する問題を解決するための、データ駆動型強化学習アルゴリズムである。
PCQLは、実際の臨床麻酔データセットに関する広範な実験によって検証される。
論文 参考訳(メタデータ) (2023-03-17T10:05:20Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z) - DeepRite: Deep Recurrent Inverse TreatmEnt Weighting for Adjusting
Time-varying Confounding in Modern Longitudinal Observational Data [68.29870617697532]
時系列データにおける時間変化の相違に対するDeep Recurrent Inverse TreatmEnt重み付け(DeepRite)を提案する。
DeepRiteは、合成データから基底的真理を復元し、実際のデータから偏りのない処理効果を推定する。
論文 参考訳(メタデータ) (2020-10-28T15:05:08Z) - Estimating Individual Treatment Effects with Time-Varying Confounders [9.784193264717098]
医療において、観察データから個別治療効果(ITE)を推定することは意義があり実用的である。
既存の作業は主に、隠れた共同設立者が存在しないという強い無知の仮定に依存している。
時系列重み付け (DSW) を用いて, ITE の時間変化を推定する手法を提案する。
論文 参考訳(メタデータ) (2020-08-27T02:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。