論文の概要: Reward Design For An Online Reinforcement Learning Algorithm Supporting
Oral Self-Care
- arxiv url: http://arxiv.org/abs/2208.07406v1
- Date: Mon, 15 Aug 2022 18:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:06:04.255425
- Title: Reward Design For An Online Reinforcement Learning Algorithm Supporting
Oral Self-Care
- Title(参考訳): 口腔セルフケアを支援するオンライン強化学習アルゴリズムに対する報酬設計
- Authors: Anna L. Trella, Kelly W. Zhang, Inbal Nahum-Shani, Vivek Shetty,
Finale Doshi-Velez, Susan A. Murphy
- Abstract要約: 歯科疾患は、主に予防可能であるにもかかわらず、最も一般的な慢性疾患の1つである。
我々は,移動型プロンプトの配信を最適化し,口腔衛生行動を促進するために,オンライン強化学習(RL)アルゴリズムを開発した。
この論文で論じられたRLアルゴリズムは、口腔衛生実践における患者のエンゲージメントを高める行動戦略を提供する口腔セルフケアアプリであるOralyticsにデプロイされる。
- 参考スコア(独自算出の注目度): 24.283342018185028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dental disease is one of the most common chronic diseases despite being
largely preventable. However, professional advice on optimal oral hygiene
practices is often forgotten or abandoned by patients. Therefore patients may
benefit from timely and personalized encouragement to engage in oral self-care
behaviors. In this paper, we develop an online reinforcement learning (RL)
algorithm for use in optimizing the delivery of mobile-based prompts to
encourage oral hygiene behaviors. One of the main challenges in developing such
an algorithm is ensuring that the algorithm considers the impact of the current
action on the effectiveness of future actions (i.e., delayed effects),
especially when the algorithm has been made simple in order to run stably and
autonomously in a constrained, real-world setting (i.e., highly noisy, sparse
data). We address this challenge by designing a quality reward which maximizes
the desired health outcome (i.e., high-quality brushing) while minimizing user
burden. We also highlight a procedure for optimizing the hyperparameters of the
reward by building a simulation environment test bed and evaluating candidates
using the test bed. The RL algorithm discussed in this paper will be deployed
in Oralytics, an oral self-care app that provides behavioral strategies to
boost patient engagement in oral hygiene practices.
- Abstract(参考訳): 歯科疾患は、主に予防可能であるにもかかわらず、最も一般的な慢性疾患の1つである。
しかし、最適な口腔衛生に関する専門的なアドバイスはしばしば患者によって忘れられるか放棄される。
したがって、患者は、タイムリーでパーソナライズされたセルフケア行動への奨励の恩恵を受けることができる。
本稿では,移動型プロンプトの配信を最適化し,口腔衛生行動を促進するためのオンライン強化学習(RL)アルゴリズムを開発する。
このようなアルゴリズムを開発する上での大きな課題の1つは、アルゴリズムが将来のアクション(すなわち遅延効果)の有効性に対する現在のアクションの影響を考慮することを保証することである。
ユーザの負担を最小限に抑えつつ、所望の健康効果(すなわち、高品質なブラッシング)を最大化する品質報酬を設計することで、この問題に対処する。
また,シミュレーション環境テストベッドの構築と,テストベッドを用いた候補評価により,報酬の過度パラメータを最適化する手法を強調した。
この論文で論じられたRLアルゴリズムは、口腔衛生実践における患者のエンゲージメントを高める行動戦略を提供する口腔セルフケアアプリであるOralyticsにデプロイされる。
関連論文リスト
- Monitoring Fidelity of Online Reinforcement Learning Algorithms in
Clinical Trials [21.994291859964875]
本稿では,オンラインRLアルゴリズムを臨床試験に導入するための重要な要件として,アルゴリズムの忠実性を提案する。
我々は,アルゴリズム開発者や臨床研究者がアルゴリズムの忠実性を確保するのに役立つ,事前デプロイ計画とリアルタイムモニタリングのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T20:19:14Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment
Regularization [57.71118589124002]
継続的な学習は破滅的な忘れ込みという課題を克服しようと試み、そこでは新しいタスクを解くための学習が、モデルが以前に学習した情報を忘れる原因となる。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れ込みを抑える新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning
Approach to Critical Care [68.8204255655161]
我々は、より信頼性の高いクリティカルケアポリシーを得ることができる深いQ-ラーニングアプローチを導入する。
まず、利用可能なすべての報酬に基づいてアクションセットを抽出し、次に、スパース主報酬に基づいて最終モデルを訓練し、制限されたアクションセットで達成する。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Policy Optimization for Personalized Interventions in Behavioral Health [8.69967783513041]
デジタルプラットフォームを通じて提供される行動的健康介入は、健康結果を大幅に改善する可能性がある。
患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討した。
この問題に対する新たなアプローチとして,政策イテレーションの一段階を近似したDecompPIを提案する。
論文 参考訳(メタデータ) (2023-03-21T21:42:03Z) - Quasi-optimal Reinforcement Learning with Continuous Actions [8.17049210746654]
そこで我々は,非政治環境において容易に最適化できる,新しいEmphquasi-Optimal Learningアルゴリズムを開発した。
本アルゴリズムを網羅的なシミュレーション実験により評価し,オハイオ1型糖尿病データセットへの線量提案実例を適用した。
論文 参考訳(メタデータ) (2023-01-21T11:30:13Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - Adherence Forecasting for Guided Internet-Delivered Cognitive Behavioral
Therapy: A Minimally Data-Sensitive Approach [59.535699822923]
インターネット提供型心理的治療(IDPT)は、メンタルヘルスのアクセシビリティを向上させるための効果的でスケーラブルな経路であると考えられている。
本研究は,最小限の敏感なログイン/ログアウトデータに依存しながら,自動アドバンス予測を行うディープラーニングアプローチを提案する。
提案されたセルフアテンションネットワークは、治療期間の1/3が経過した時点で、平均的バランスの正確さを70%以上達成した。
論文 参考訳(メタデータ) (2022-01-11T13:55:57Z) - Personalized Rehabilitation Robotics based on Online Learning Control [62.6606062732021]
本稿では,各ユーザに対して実行時の制御力をパーソナライズ可能な,新しいオンライン学習制御アーキテクチャを提案する。
提案手法を,学習コントローラがパーソナライズされた制御を提供するとともに,安全な相互作用力も得られる実験ユーザスタディで評価した。
論文 参考訳(メタデータ) (2021-10-01T15:28:44Z) - Resource Planning for Hospitals Under Special Consideration of the
COVID-19 Pandemic: Optimization and Sensitivity Analysis [87.31348761201716]
新型コロナウイルス(covid-19)パンデミックのような危機は、医療機関にとって深刻な課題となる。
BaBSim.Hospitalは離散イベントシミュレーションに基づく容量計画ツールである。
BaBSim.Hospitalを改善するためにこれらのパラメータを調査し最適化することを目指しています。
論文 参考訳(メタデータ) (2021-05-16T12:38:35Z) - Streamlined Empirical Bayes Fitting of Linear Mixed Models in Mobile
Health [3.8974425658660596]
身体活動を増加させるために設計されたモバイルヘルス(mHealth)アプリケーションは、ユーザのモチベーションを高めるためにコンテキスト的に関連性のある提案をする必要がある。
そこで本稿では,ユーザに対して,コンテキスト化された,パーソナライズされた身体活動提案を提供するアルゴリズムを提案する。
技術アプローチの精度は, それぞれ99%, 56%に向上した。
論文 参考訳(メタデータ) (2020-03-28T19:57:55Z) - Boosting Algorithms for Estimating Optimal Individualized Treatment
Rules [4.898659895355356]
最適な個別化処理規則を推定するための非パラメトリックアルゴリズムを提案する。
提案アルゴリズムは機械学習文学において最も強力なアルゴリズムの1つであるXGBoostアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2020-01-31T22:26:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。