論文の概要: Oralytics Reinforcement Learning Algorithm
- arxiv url: http://arxiv.org/abs/2406.13127v2
- Date: Thu, 12 Sep 2024 19:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 22:57:51.464948
- Title: Oralytics Reinforcement Learning Algorithm
- Title(参考訳): Oralytics Reinforcement Learning Algorithm
- Authors: Anna L. Trella, Kelly W. Zhang, Stephanie M. Carpenter, David Elashoff, Zara M. Greer, Inbal Nahum-Shani, Dennis Ruenger, Vivek Shetty, Susan A. Murphy,
- Abstract要約: 歯科疾患はアメリカ合衆国で最も一般的な慢性疾患の1つである。
パーソナライズされた介入プロンプトのデリバリを最適化し,口腔セルフケア(OSCB)を改善するオンライン強化学習(RL)アルゴリズムであるOralyticsを開発した。
最終RLアルゴリズムは、2023年秋から2024年夏にかけて行われたOralytics臨床試験で展開された。
- 参考スコア(独自算出の注目度): 5.54328512723076
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dental disease is still one of the most common chronic diseases in the United States. While dental disease is preventable through healthy oral self-care behaviors (OSCB), this basic behavior is not consistently practiced. We have developed Oralytics, an online, reinforcement learning (RL) algorithm that optimizes the delivery of personalized intervention prompts to improve OSCB. In this paper, we offer a full overview of algorithm design decisions made using prior data, domain expertise, and experiments in a simulation test bed. The finalized RL algorithm was deployed in the Oralytics clinical trial, conducted from fall 2023 to summer 2024.
- Abstract(参考訳): 歯科疾患は現在でもアメリカ合衆国で最も一般的な慢性疾患の1つである。
歯科疾患は、健康的な口腔セルフケア行動(OSCB)によって予防できるが、この基本的な行動は一貫して実践されていない。
我々は、個人化された介入プロンプトの配信を最適化し、OSCBを改善するオンライン強化学習(RL)アルゴリズムであるOralyticsを開発した。
本稿では、先行データ、ドメインの専門知識、実験をシミュレーションテストベッドで使用したアルゴリズム設計決定について概説する。
最終RLアルゴリズムは、2023年秋から2024年夏にかけて行われたOralytics臨床試験で展開された。
関連論文リスト
- A Deployed Online Reinforcement Learning Algorithm In An Oral Health Clinical Trial [20.944037982124037]
歯科疾患は、実質的な財政的負担、個人的苦痛、全身疾患のリスクの増加を伴う慢性疾患である。
毎日2回歯磨きを推奨しているにもかかわらず、忘れやすさや解離などの要因により、推奨された口腔セルフケア行動への固執は依然として最適ではない。
歯科疾患のリスクを負う医療従事者の予防ケアを補完する医療介入システムOralyticsを開発した。
論文 参考訳(メタデータ) (2024-09-03T17:16:01Z) - Monitoring Fidelity of Online Reinforcement Learning Algorithms in Clinical Trials [20.944037982124037]
本稿では,オンラインRLアルゴリズムを臨床試験に導入するための重要な要件として,アルゴリズムの忠実性を提案する。
我々は,アルゴリズム開発者や臨床研究者がアルゴリズムの忠実性を確保するのに役立つ,事前デプロイ計画とリアルタイムモニタリングのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T20:19:14Z) - Measurement Scheduling for ICU Patients with Offline Reinforcement
Learning [16.07235754244993]
研究によると、ICUで注文された検査の20-40%は冗長であり、患者の安全を損なうことなく排除できる。
これまでの研究はオフライン強化学習(Offline-RL)を利用して、患者情報に基づく検査の順序付けに最適なポリシーを見つけてきた。
その後、新しいICU患者データセットがリリースされ、Offline-RL法で様々な進歩がなされた。
論文 参考訳(メタデータ) (2024-02-12T00:22:47Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Did we personalize? Assessing personalization by an online reinforcement
learning algorithm using resampling [9.745543921550748]
強化学習(Reinforcement Learning, RL)は、デジタルヘルスにおける治療のシーケンスをパーソナライズし、ユーザーがより健康的な行動を採用するのを支援するために用いられる。
オンラインRLは、各ユーザの履歴応答に基づいて学習するので、この問題に対して有望なデータ駆動型アプローチである。
我々は,RLアルゴリズムが実世界の展開に最適化された介入に含まれるべきかどうかを評価する。
論文 参考訳(メタデータ) (2023-04-11T17:20:37Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - Reward Design For An Online Reinforcement Learning Algorithm Supporting
Oral Self-Care [24.283342018185028]
歯科疾患は、主に予防可能であるにもかかわらず、最も一般的な慢性疾患の1つである。
我々は,移動型プロンプトの配信を最適化し,口腔衛生行動を促進するために,オンライン強化学習(RL)アルゴリズムを開発した。
この論文で論じられたRLアルゴリズムは、口腔衛生実践における患者のエンゲージメントを高める行動戦略を提供する口腔セルフケアアプリであるOralyticsにデプロイされる。
論文 参考訳(メタデータ) (2022-08-15T18:47:09Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - Resource Planning for Hospitals Under Special Consideration of the
COVID-19 Pandemic: Optimization and Sensitivity Analysis [87.31348761201716]
新型コロナウイルス(covid-19)パンデミックのような危機は、医療機関にとって深刻な課題となる。
BaBSim.Hospitalは離散イベントシミュレーションに基づく容量計画ツールである。
BaBSim.Hospitalを改善するためにこれらのパラメータを調査し最適化することを目指しています。
論文 参考訳(メタデータ) (2021-05-16T12:38:35Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z) - CAT: Customized Adversarial Training for Improved Robustness [142.3480998034692]
そこで我々は,各トレーニングサンプルに対して,摂動レベルと対応するラベルを適応的にカスタマイズする,Customized Adversarial Training (CAT) という新しいアルゴリズムを提案する。
提案アルゴリズムは,従来の逆行訓練法よりもクリーンでロバストな精度が得られることを示す。
論文 参考訳(メタデータ) (2020-02-17T06:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。