論文の概要: Practical considerations when designing an online learning algorithm for an app-based mHealth intervention
- arxiv url: http://arxiv.org/abs/2511.08719v1
- Date: Thu, 13 Nov 2025 01:03:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.208916
- Title: Practical considerations when designing an online learning algorithm for an app-based mHealth intervention
- Title(参考訳): アプリベースのmHealth介入のためのオンライン学習アルゴリズムの設計における実践的考察
- Authors: Rachel T Gonzalez, Madeline R Abbott, Brahmajee Nallamothu, Scott Hummel, Michael Dorsch, Walter Dempsey,
- Abstract要約: LowSalt4Life 2 (LS4L2) は、アプリベースの介入によって高血圧患者のナトリウム摂取を減らす試みである。
強化学習アルゴリズムは、リマインダー通知を送信して、通知が有効なコンテキストにおけるアプリのエンゲージメントを促進するように設計されている。
我々は、強化学習アルゴリズムをデプロイする将来の試行において、課題を解決するためのテンプレートとして提示する。
- 参考スコア(独自算出の注目度): 0.8796261172196743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ubiquitous nature of mobile health (mHealth) technology has expanded opportunities for the integration of reinforcement learning into traditional clinical trial designs, allowing researchers to learn individualized treatment policies during the study. LowSalt4Life 2 (LS4L2) is a recent trial aimed at reducing sodium intake among hypertensive individuals through an app-based intervention. A reinforcement learning algorithm, which was deployed in one of the trial arms, was designed to send reminder notifications to promote app engagement in contexts where the notification would be effective, i.e., when a participant is likely to open the app in the next 30-minute and not when prior data suggested reduced effectiveness. Such an algorithm can improve app-based mHealth interventions by reducing participant burden and more effectively promoting behavior change. We encountered various challenges during the implementation of the learning algorithm, which we present as a template to solving challenges in future trials that deploy reinforcement learning algorithms. We provide template solutions based on LS4L2 for solving the key challenges of (i) defining a relevant reward, (ii) determining a meaningful timescale for optimization, (iii) specifying a robust statistical model that allows for automation, (iv) balancing model flexibility with computational cost, and (v) addressing missing values in gradually collected data.
- Abstract(参考訳): モバイルヘルス(mHealth)技術のユビキタスな性質は、強化学習を従来の臨床試験デザインに統合する機会を拡大し、研究者は研究中に個別化された治療方針を学ぶことができるようになった。
LowSalt4Life 2 (LS4L2) は、アプリベースの介入によって高血圧患者のナトリウム摂取を減らすことを目的とした最近の臨床試験である。
試用アームの1つに配置された強化学習アルゴリズムは、通知が有効になる状況、すなわち、参加者が30分以内にアプリを起動する可能性があり、事前データが有効性が低下しない状況において、アプリのエンゲージメントを促進するためにリマインダー通知を送信するように設計された。
このようなアルゴリズムは、参加者の負担を軽減し、より効果的に行動変化を促進することにより、アプリベースのmHealth介入を改善することができる。
我々は、強化学習アルゴリズムをデプロイする将来の試行において、課題を解決するためのテンプレートとして提示される学習アルゴリズムの実装中に、様々な課題に直面した。
我々はLS4L2に基づいたテンプレートソリューションを提供し、主要な課題を解決する。
i)関連する報酬を定義すること
二 最適化のための意味のある時間尺度を決定すること。
三 自動化が可能な頑健な統計モデルを指定すること。
(四)計算コストによるモデルの柔軟性のバランス
(v) 徐々に収集されたデータに欠落した値に対処する。
関連論文リスト
- Search-Based Adversarial Estimates for Improving Sample Efficiency in Off-Policy Reinforcement Learning [0.0]
本稿では,この問題を緩和するための新しい,シンプルかつ効率的なアプローチとして,Adversarial Estimatesを提案する。
我々のアプローチは、学習を促進するために、小さな人間の軌道の集合からの潜在類似性探索を活用する。
本研究の結果から,適応推定を用いた学習アルゴリズムは,元のバージョンよりも高速に収束することがわかった。
論文 参考訳(メタデータ) (2025-02-03T17:41:02Z) - An Innovative Data-Driven and Adaptive Reinforcement Learning Approach for Context-Aware Prescriptive Process Monitoring [3.4437362489150254]
本稿では,Fun-Tuned Offline Reinforcement Learning Augmented Process Sequence Optimizationという新しいフレームワークを提案する。
FORLAPSは、状態依存型報酬形成機構によって強化された学習を活用して、ビジネスプロセスにおける最適な実行経路を特定することを目的としている。
また,FOLAPSは資源使用時間の31%削減,プロセス時間の23%削減を実現している。
論文 参考訳(メタデータ) (2025-01-17T20:31:35Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Quasi-optimal Reinforcement Learning with Continuous Actions [8.17049210746654]
そこで我々は,非政治環境において容易に最適化できる,新しいEmphquasi-Optimal Learningアルゴリズムを開発した。
本アルゴリズムを網羅的なシミュレーション実験により評価し,オハイオ1型糖尿病データセットへの線量提案実例を適用した。
論文 参考訳(メタデータ) (2023-01-21T11:30:13Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - Imitating, Fast and Slow: Robust learning from demonstrations via
decision-time planning [96.72185761508668]
テストタイムでの計画(IMPLANT)は、模倣学習のための新しいメタアルゴリズムである。
IMPLANTは,標準制御環境において,ベンチマーク模倣学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T17:16:52Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Active Learning for Gaussian Process Considering Uncertainties with
Application to Shape Control of Composite Fuselage [7.358477502214471]
ガウス過程に不確実性のある2つの新しい能動学習アルゴリズムを提案する。
提案手法は不確実性の影響を取り入れ,予測性能の向上を実現する。
本手法は, 複合胴体の自動形状制御における予測モデルの改善に応用されている。
論文 参考訳(メタデータ) (2020-04-23T02:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。