論文の概要: An Improved Strategy for Blood Glucose Control Using Multi-Step Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2403.07566v1
- Date: Tue, 12 Mar 2024 11:53:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 21:43:23.518374
- Title: An Improved Strategy for Blood Glucose Control Using Multi-Step Deep
Reinforcement Learning
- Title(参考訳): 多段階深層強化学習による血糖コントロールの改善
- Authors: Weiwei Gu and Senquan Wang
- Abstract要約: 血糖コントロール(BG)は、体外インスリン注入によって、個人のBGを健康な範囲に保持する。
最近の研究は、個別化および自動化されたBG制御アプローチの探索に費やされている。
深層強化学習(DRL)は新たなアプローチとしての可能性を示している。
- 参考スコア(独自算出の注目度): 4.2243058640527575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blood Glucose (BG) control involves keeping an individual's BG within a
healthy range through extracorporeal insulin injections is an important task
for people with type 1 diabetes. However,traditional patient self-management is
cumbersome and risky. Recent research has been devoted to exploring
individualized and automated BG control approaches, among which Deep
Reinforcement Learning (DRL) shows potential as an emerging approach. In this
paper, we use an exponential decay model of drug concentration to convert the
formalization of the BG control problem, which takes into account the delay and
prolongedness of drug effects, from a PAE-POMDP (Prolonged Action
Effect-Partially Observable Markov Decision Process) to a MDP, and we propose a
novel multi-step DRL-based algorithm to solve the problem. The Prioritized
Experience Replay (PER) sampling method is also used in it. Compared to
single-step bootstrapped updates, multi-step learning is more efficient and
reduces the influence from biasing targets. Our proposed method converges
faster and achieves higher cumulative rewards compared to the benchmark in the
same training environment, and improves the time-in-range (TIR), the percentage
of time the patient's BG is within the target range, in the evaluation phase.
Our work validates the effectiveness of multi-step reinforcement learning in BG
control, which may help to explore the optimal glycemic control measure and
improve the survival of diabetic patients.
- Abstract(参考訳): 血糖コントロール(BG)は、BGを体外インスリン注入によって健康な範囲に維持することが1型糖尿病患者にとって重要な課題である。
しかし、従来の患者の自己管理は面倒で危険である。
近年,個別化・自動化されたBG制御手法の研究が盛んに行われており,その中でも深層強化学習(DRL)が新たなアプローチの可能性を示唆している。
本稿では,PAE-POMDP(Prolonged Action Effect-Partially Observable Markov Decision Process)からMDP(Prolonged Action Effect-Partially Observable Markov Decision Process)への薬物効果の遅延と長期性を考慮して,薬物濃度の指数関数的減衰モデルを用いてBG制御問題の定式化を行い,その問題を解決するための新しい多段階DRLアルゴリズムを提案する。
また、優先順位付きエクスペリエンスリプレイ(per)サンプリング方法も使用されている。
シングルステップブートストラップ更新と比較して、マルチステップ学習は効率的であり、バイアス対象の影響を低減している。
提案手法は,同一トレーニング環境におけるベンチマークと比較して,より早く収束し,高い累積報酬を達成するとともに,患者BGが目標範囲内である時間(TIR)を,評価フェーズにおいて改善する。
本研究は,bg制御における多段階強化学習の有効性を検証し,糖尿病患者の最適血糖コントロール尺度の検討と生存率の向上に寄与する。
関連論文リスト
- GlucoBench: Curated List of Continuous Glucose Monitoring Datasets with Prediction Benchmarks [0.12564343689544843]
連続血糖モニター (Continuous glucose monitors, CGM) は、血糖値を一定間隔で測定する小さな医療機器である。
CGMデータに基づくグルコーストラジェクトリの予測は、糖尿病管理を大幅に改善する可能性を秘めている。
論文 参考訳(メタデータ) (2024-10-08T08:01:09Z) - Blood Glucose Control Via Pre-trained Counterfactual Invertible Neural Networks [3.7217371773133325]
対実的可逆ニューラルネットワーク(CINN)に基づくイントロスペクティブ強化学習(RL)を提案する。
事前学習したCINNをRLエージェントのフリーズイントロスペクティブブロックとして使用し、フォワード予測と反ファクト推論を統合してポリシー更新を誘導する。
本稿では,BG予測における事前学習CINNの精度と一般化能力を実験的に検証した。
論文 参考訳(メタデータ) (2024-05-23T01:34:59Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では、DBPプロセスの本質が、その堅牢性の主要な要因であると主張している。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - GARNN: An Interpretable Graph Attentive Recurrent Neural Network for
Predicting Blood Glucose Levels via Multivariate Time Series [12.618792803757714]
マルチモーダルデータをモデル化するための解釈可能なグラフ減衰ニューラルネットワーク(GARNN)を提案する。
GARNNは最高の予測精度を達成し、高品質な時間的解釈性を提供する。
これらの知見は糖尿病治療改善のための堅牢なツールとしてのGARNNの可能性を示している。
論文 参考訳(メタデータ) (2024-02-26T01:18:53Z) - Basal-Bolus Advisor for Type 1 Diabetes (T1D) Patients Using Multi-Agent
Reinforcement Learning (RL) Methodology [0.0]
本稿では,1型糖尿病(T1D)患者におけるパーソナライズされたグルコース制御のための新しいマルチエージェント強化学習(RL)手法を提案する。
本発明の方法は、血液グルコース(BG)代謝モデルと、ベーサル・ボールス・アドバイザとして作用するマルチエージェントソフトアクター・クリティックRLモデルとからなるクローズドループシステムを用いる。
以上の結果から,RLをベースとしたベーサル・ボルス・アドバイザは血糖コントロールを著しく改善し,血糖変動を低減し,目標範囲内での時間を短縮することが示された。
論文 参考訳(メタデータ) (2023-07-17T23:50:51Z) - Hybrid Control Policy for Artificial Pancreas via Ensemble Deep
Reinforcement Learning [13.783833824324333]
閉ループグルコース制御の課題に対処するために, 人工膵(HyCPAP)のハイブリッド制御ポリシーを提案する。
FDAが承認したUVA/Padova T1DMシミュレータを用いた広範囲な実験を行った。
本手法は所望のユーグリセミック範囲で過ごす時間が最も多く,低血糖の発生率が最も低い。
論文 参考訳(メタデータ) (2023-07-13T00:53:09Z) - Automatic diagnosis of knee osteoarthritis severity using Swin
transformer [55.01037422579516]
変形性膝関節症 (KOA) は膝関節の慢性的な痛みと硬直を引き起こす疾患である。
我々は,Swin Transformer を用いて KOA の重大度を予測する自動手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T09:49:30Z) - How to Train Your DRAGON: Diverse Augmentation Towards Generalizable
Dense Retrieval [80.54532535622988]
教師付き検索とゼロショット検索の両方において高い精度を達成するために、一般化可能な高密度検索を訓練できることが示される。
多様な拡張で訓練された高密度レトリバーであるDRAGONは、教師付きおよびゼロショット評価の両方において最先端の有効性を実現する最初のBERTベースサイズのDRである。
論文 参考訳(メタデータ) (2023-02-15T03:53:26Z) - SSM-DTA: Breaking the Barriers of Data Scarcity in Drug-Target Affinity
Prediction [127.43571146741984]
薬物標的親和性(DTA)は、早期の薬物発見において極めて重要である。
湿式実験は依然として最も信頼性の高い方法であるが、時間と資源が集中している。
既存の手法は主に、データ不足の問題に適切に対処することなく、利用可能なDTAデータに基づく技術開発に重点を置いている。
SSM-DTAフレームワークについて述べる。
論文 参考訳(メタデータ) (2022-06-20T14:53:25Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。