論文の概要: Using Reinforcement Learning to Simplify Mealtime Insulin Dosing for
People with Type 1 Diabetes: In-Silico Experiments
- arxiv url: http://arxiv.org/abs/2309.09125v1
- Date: Sun, 17 Sep 2023 01:34:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 17:24:19.381828
- Title: Using Reinforcement Learning to Simplify Mealtime Insulin Dosing for
People with Type 1 Diabetes: In-Silico Experiments
- Title(参考訳): 強化学習を用いた1型糖尿病患者に対する経時インスリン摂取の簡易化 : インサイリコ実験
- Authors: Anas El Fathi, Marc D. Breton
- Abstract要約: 1型糖尿病(T1D)の患者は、食事時に最適なインスリン摂取量を計算するのに苦労する。
定性食事(QM)戦略に対応する最適な食事関連インスリン投与を推奨するRLエージェントを提案する。
- 参考スコア(独自算出の注目度): 0.40792653193642503
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: People with type 1 diabetes (T1D) struggle to calculate the optimal insulin
dose at mealtime, especially when under multiple daily injections (MDI)
therapy. Effectively, they will not always perform rigorous and precise
calculations, but occasionally, they might rely on intuition and previous
experience. Reinforcement learning (RL) has shown outstanding results in
outperforming humans on tasks requiring intuition and learning from experience.
In this work, we propose an RL agent that recommends the optimal
meal-accompanying insulin dose corresponding to a qualitative meal (QM)
strategy that does not require precise carbohydrate counting (CC) (e.g., a
usual meal at noon.). The agent is trained using the soft actor-critic approach
and comprises long short-term memory (LSTM) neurons. For training, eighty
virtual subjects (VS) of the FDA-accepted UVA/Padova T1D adult population were
simulated using MDI therapy and QM strategy. For validation, the remaining
twenty VS were examined in 26-week scenarios, including intra- and inter-day
variabilities in glucose. \textit{In-silico} results showed that the proposed
RL approach outperforms a baseline run-to-run approach and can replace the
standard CC approach. Specifically, after 26 weeks, the time-in-range
($70-180$mg/dL) and time-in-hypoglycemia ($<70$mg/dL) were $73.1\pm11.6$% and $
2.0\pm 1.8$% using the RL-optimized QM strategy compared to $70.6\pm14.8$% and
$ 1.5\pm 1.5$% using CC. Such an approach can simplify diabetes treatment,
resulting in improved quality of life and glycemic outcomes.
- Abstract(参考訳): 1型糖尿病患者(t1d)は食事中、特にmdi(multiple daily injections)療法で最適なインスリン量を計算するのに苦労している。
効果的に、厳密で正確な計算を行うわけではないが、時には直観や過去の経験に依存することもある。
強化学習(rl)は、直観と経験からの学習を必要とするタスクにおいて、人間よりも優れた結果を示している。
本研究は, 正確な炭水化物計数(CC)を必要としない定性的食事(QM)戦略(正午の通常食事など)に対応する最適なインスリン投与を推奨するRLエージェントを提案する。
ソフトアクター・クリティックアプローチを用いて訓練され、長い短期記憶(LSTM)ニューロンを含む。
トレーニングでは, FDA が承認した UVA/Padova T1D 成人80名を対象に, MDI 療法とQM 戦略を用いてシミュレーションを行った。
検証のため,グルコース中の日内および日内変動を含む26週間のシナリオで残りの20例を検討した。
\textit{In-silico} の結果、提案した RL アプローチはベースラインランランアプローチよりも優れ、標準 CC アプローチを置き換えることができることを示した。
具体的には、26週間後のタイムインレンジ(70-180$mg/dL)とタイムインヒポ血糖(70$mg/dL)は、RL最適化QM戦略による73.1\pm11.6$%と2.0\pm 1.8$%であり、CCによる70.6\pm14.8$%と1.5\pm 1.5$%である。
このようなアプローチは糖尿病の治療を単純化し、生活の質と血糖値の改善をもたらす。
関連論文リスト
- From Glucose Patterns to Health Outcomes: A Generalizable Foundation Model for Continuous Glucose Monitor Data Analysis [50.80532910808962]
GluFormerは、トランスフォーマーアーキテクチャに基づく生体医学的時間的データの生成基盤モデルである。
GluFormerは5つの地理的領域にまたがる4936人を含む15の異なる外部データセットに一般化されている。
今後4年間の健康状態も予測できる。
論文 参考訳(メタデータ) (2024-08-20T13:19:06Z) - Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Basal-Bolus Advisor for Type 1 Diabetes (T1D) Patients Using Multi-Agent
Reinforcement Learning (RL) Methodology [0.0]
本稿では,1型糖尿病(T1D)患者におけるパーソナライズされたグルコース制御のための新しいマルチエージェント強化学習(RL)手法を提案する。
本発明の方法は、血液グルコース(BG)代謝モデルと、ベーサル・ボールス・アドバイザとして作用するマルチエージェントソフトアクター・クリティックRLモデルとからなるクローズドループシステムを用いる。
以上の結果から,RLをベースとしたベーサル・ボルス・アドバイザは血糖コントロールを著しく改善し,血糖変動を低減し,目標範囲内での時間を短縮することが示された。
論文 参考訳(メタデータ) (2023-07-17T23:50:51Z) - Building Brains: Subvolume Recombination for Data Augmentation in Large
Vessel Occlusion Detection [56.67577446132946]
この戦略をデータから学ぶためには、標準的なディープラーニングベースのモデルに対して、大規模なトレーニングデータセットが必要である。
そこで本研究では, 異なる患者から血管木セグメントを組換えることで, 人工的なトレーニングサンプルを生成する方法を提案する。
拡張スキームに則って,タスク固有の入力を入力した3D-DenseNetを用いて,半球間の比較を行う。
論文 参考訳(メタデータ) (2022-05-05T10:31:57Z) - Offline Reinforcement Learning for Safer Blood Glucose Control in People
with Type 1 Diabetes [1.1859913430860336]
オンライン強化学習(RL)は、糖尿病デバイスにおける血糖コントロールをさらに強化する方法として利用されてきた。
本稿では,FDAが承認したUVA/パドバ血糖動態シミュレータで利用可能な30名の仮想的患者の血糖管理におけるBCQ,CQL,TD3-BCの有用性について検討する。
オフラインのRLは、61.6 +-0.3%から65.3 +/-0.5%までの健康な血糖値において、最強の最先端のベースラインに比べて有意に上昇する。
論文 参考訳(メタデータ) (2022-04-07T11:52:12Z) - Enhancing Food Intake Tracking in Long-Term Care with Automated Food
Imaging and Nutrient Intake Tracking (AFINI-T) Technology [71.37011431958805]
長期医療(LTC)の住民の半数は、入院、死亡、死亡率、生活の質の低下が悪化している。
本稿では,LCCのための食品自動撮像・栄養摂取追跡技術(AFINI-T)について述べる。
論文 参考訳(メタデータ) (2021-12-08T22:25:52Z) - COVID-19 Detection from Chest X-ray Images using Imprinted Weights
Approach [67.05664774727208]
胸部X線撮影は、COVID-19の代替スクリーニング方法です。
コンピュータ支援診断(CAD)は低コストで高速で実現可能であることが証明されている。
この課題に対処するために,インプリント重みという低ショット学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-04T19:01:40Z) - Deep Reinforcement Learning for Closed-Loop Blood Glucose Control [12.989855325491163]
自動血糖コントロールのための強化学習技術を開発した。
30人のシミュレーション患者から得られた2100万時間以上のデータに基づいて、我々のRLアプローチはベースライン制御アルゴリズムより優れています。
論文 参考訳(メタデータ) (2020-09-18T20:15:02Z) - Challenging common bolus advisor for self-monitoring type-I diabetes
patients using Reinforcement Learning [0.0]
自己モニタリングを行う糖尿病患者は、食事の直前にインスリンの摂取量を決定する必要がある。
FDAが承認したシミュレータであるT1DMでシミュレーションしたデータに強化学習技術を適用することに挑戦した。
論文 参考訳(メタデータ) (2020-07-23T09:38:54Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z) - Basal Glucose Control in Type 1 Diabetes using Deep Reinforcement
Learning: An In Silico Validation [16.93692520921499]
単一ホルモン(インスリン)と二重ホルモン(インスリンとグルカゴン)のデリバリーのための新しい深層強化学習モデルを提案する。
成体コホートでは、目標範囲のパーセンテージは77.6%から80.9%に改善した。
青年コホートでは、目標範囲のパーセンテージが55.5%から65.9%に改善され、単一ホルモンが制御された。
論文 参考訳(メタデータ) (2020-05-18T20:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。