論文の概要: Deep Reinforcement Learning for Closed-Loop Blood Glucose Control
- arxiv url: http://arxiv.org/abs/2009.09051v1
- Date: Fri, 18 Sep 2020 20:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:05:04.939786
- Title: Deep Reinforcement Learning for Closed-Loop Blood Glucose Control
- Title(参考訳): クローズドループ血糖コントロールのための深部強化学習
- Authors: Ian Fox, Joyce Lee, Rodica Pop-Busui, Jenna Wiens
- Abstract要約: 自動血糖コントロールのための強化学習技術を開発した。
30人のシミュレーション患者から得られた2100万時間以上のデータに基づいて、我々のRLアプローチはベースライン制御アルゴリズムより優れています。
- 参考スコア(独自算出の注目度): 12.989855325491163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People with type 1 diabetes (T1D) lack the ability to produce the insulin
their bodies need. As a result, they must continually make decisions about how
much insulin to self-administer to adequately control their blood glucose
levels. Longitudinal data streams captured from wearables, like continuous
glucose monitors, can help these individuals manage their health, but currently
the majority of the decision burden remains on the user. To relieve this
burden, researchers are working on closed-loop solutions that combine a
continuous glucose monitor and an insulin pump with a control algorithm in an
`artificial pancreas.' Such systems aim to estimate and deliver the appropriate
amount of insulin. Here, we develop reinforcement learning (RL) techniques for
automated blood glucose control. Through a series of experiments, we compare
the performance of different deep RL approaches to non-RL approaches. We
highlight the flexibility of RL approaches, demonstrating how they can adapt to
new individuals with little additional data. On over 2.1 million hours of data
from 30 simulated patients, our RL approach outperforms baseline control
algorithms: leading to a decrease in median glycemic risk of nearly 50% from
8.34 to 4.24 and a decrease in total time hypoglycemic of 99.8%, from 4,610
days to 6. Moreover, these approaches are able to adapt to predictable meal
times (decreasing average risk by an additional 24% as meals increase in
predictability). This work demonstrates the potential of deep RL to help people
with T1D manage their blood glucose levels without requiring expert knowledge.
All of our code is publicly available, allowing for replication and extension.
- Abstract(参考訳): 1型糖尿病(T1D)の患者は、体に必要なインスリンを産生する能力がない。
結果として、血糖値を適切に制御するインスリンの量について、彼らは継続的に決定しなければならない。
連続的なグルコースモニターのようなウェアラブルから取得した縦断データストリームは、これらの個人が健康を管理するのに役立ちますが、現在、決定の重荷の大半はユーザーにかかっています。
この負担を軽減するために、研究者たちは「人工膵」で連続グルコースモニターとインスリンポンプと制御アルゴリズムを組み合わせたクローズドループソリューションに取り組んでいる。
「こうしたシステムは、適切な量のインスリンを見積もって納入することを目的としている。
そこで我々は,自動血糖コントロールのための強化学習(RL)技術を開発した。
一連の実験を通して、異なる深部RLアプローチの性能を非RLアプローチと比較する。
我々は、RLアプローチの柔軟性を強調し、新たな個人にどのように適応できるかを、追加データで示します。
シミュレーションされた30人の患者から得られた2100万時間以上のデータにおいて、我々のRLアプローチはベースライン制御アルゴリズムよりも優れており、中央値の血糖リスクは8.34から4.24に50%近く減少し、合計時間の低血糖は4,610日から6.8%減少する。
さらに、これらのアプローチは、予測可能な食事時間に適応することができる(食事の予測可能性の増加に伴い、平均リスクを24%増加させる)。
この研究は、T1D患者が専門家の知識を必要とせずに血糖値を管理するのに役立つ、深いRLの可能性を示す。
すべてのコードが公開されており、レプリケーションと拡張が可能です。
関連論文リスト
- From Glucose Patterns to Health Outcomes: A Generalizable Foundation Model for Continuous Glucose Monitor Data Analysis [50.80532910808962]
GluFormerは、トランスフォーマーアーキテクチャに基づく生体医学的時間的データの生成基盤モデルである。
GluFormerは5つの地理的領域にまたがる4936人を含む15の異なる外部データセットに一般化されている。
今後4年間の健康状態も予測できる。
論文 参考訳(メタデータ) (2024-08-20T13:19:06Z) - Attention Networks for Personalized Mealtime Insulin Dosing in People with Type 1 Diabetes [0.30723404270319693]
本稿では,自己注意型エンコーダネットワークを用いた強化学習エージェントが,この直感的な処理を効果的に模倣し,強化する方法を実証する。
その結果、センサー強化ポンプのシナリオでは16.5から9.6に、自動インスリンデリバリーのシナリオでは9.1から6.7に、血糖リスクは著しく低下した。
論文 参考訳(メタデータ) (2024-06-18T17:59:32Z) - Compressing Deep Reinforcement Learning Networks with a Dynamic
Structured Pruning Method for Autonomous Driving [63.155562267383864]
深部強化学習(DRL)は複雑な自律運転シナリオにおいて顕著な成功を収めている。
DRLモデルは、必然的に高いメモリ消費と計算をもたらし、リソース限定の自動運転デバイスへの広範な展開を妨げる。
そこで本研究では,DRLモデルの非重要なニューロンを段階的に除去する,新しい動的構造化プルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T09:00:30Z) - Using Reinforcement Learning to Simplify Mealtime Insulin Dosing for
People with Type 1 Diabetes: In-Silico Experiments [0.40792653193642503]
1型糖尿病(T1D)の患者は、食事時に最適なインスリン摂取量を計算するのに苦労する。
定性食事(QM)戦略に対応する最適な食事関連インスリン投与を推奨するRLエージェントを提案する。
論文 参考訳(メタデータ) (2023-09-17T01:34:02Z) - Efficient Diffusion Policies for Offline Reinforcement Learning [85.73757789282212]
Diffsuion-QLは、拡散モデルでポリシーを表現することによってオフラインRLの性能を大幅に向上させる。
これら2つの課題を克服するために,効率的な拡散政策(EDP)を提案する。
EDPは、サンプリングチェーンの実行を避けるために、トレーニング中の腐敗したアクションからアクションを構築する。
論文 参考訳(メタデータ) (2023-05-31T17:55:21Z) - Building Brains: Subvolume Recombination for Data Augmentation in Large
Vessel Occlusion Detection [56.67577446132946]
この戦略をデータから学ぶためには、標準的なディープラーニングベースのモデルに対して、大規模なトレーニングデータセットが必要である。
そこで本研究では, 異なる患者から血管木セグメントを組換えることで, 人工的なトレーニングサンプルを生成する方法を提案する。
拡張スキームに則って,タスク固有の入力を入力した3D-DenseNetを用いて,半球間の比較を行う。
論文 参考訳(メタデータ) (2022-05-05T10:31:57Z) - Offline Reinforcement Learning for Safer Blood Glucose Control in People
with Type 1 Diabetes [1.1859913430860336]
オンライン強化学習(RL)は、糖尿病デバイスにおける血糖コントロールをさらに強化する方法として利用されてきた。
本稿では,FDAが承認したUVA/パドバ血糖動態シミュレータで利用可能な30名の仮想的患者の血糖管理におけるBCQ,CQL,TD3-BCの有用性について検討する。
オフラインのRLは、61.6 +-0.3%から65.3 +/-0.5%までの健康な血糖値において、最強の最先端のベースラインに比べて有意に上昇する。
論文 参考訳(メタデータ) (2022-04-07T11:52:12Z) - Enhancing Food Intake Tracking in Long-Term Care with Automated Food
Imaging and Nutrient Intake Tracking (AFINI-T) Technology [71.37011431958805]
長期医療(LTC)の住民の半数は、入院、死亡、死亡率、生活の質の低下が悪化している。
本稿では,LCCのための食品自動撮像・栄養摂取追跡技術(AFINI-T)について述べる。
論文 参考訳(メタデータ) (2021-12-08T22:25:52Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - LSTMs and Deep Residual Networks for Carbohydrate and Bolus
Recommendations in Type 1 Diabetes Management [4.01573226844961]
本研究では, LSTMを用いた血糖値予測手法について紹介する。
次に、同じ推奨タスクのための新しいアーキテクチャを導き出します。
OhioT1DMデータセットの実際の患者データを用いた実験的評価は、新しい統合アーキテクチャが以前のLSTMベースのアプローチと良好に比較できることを示している。
論文 参考訳(メタデータ) (2021-03-06T19:06:14Z) - Basal Glucose Control in Type 1 Diabetes using Deep Reinforcement
Learning: An In Silico Validation [16.93692520921499]
単一ホルモン(インスリン)と二重ホルモン(インスリンとグルカゴン)のデリバリーのための新しい深層強化学習モデルを提案する。
成体コホートでは、目標範囲のパーセンテージは77.6%から80.9%に改善した。
青年コホートでは、目標範囲のパーセンテージが55.5%から65.9%に改善され、単一ホルモンが制御された。
論文 参考訳(メタデータ) (2020-05-18T20:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。