論文の概要: Adaptive Interventions with User-Defined Goals for Health Behavior Change
- arxiv url: http://arxiv.org/abs/2311.09483v3
- Date: Sat, 27 Apr 2024 21:17:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 00:25:09.568329
- Title: Adaptive Interventions with User-Defined Goals for Health Behavior Change
- Title(参考訳): 健康行動変化のためのユーザ定義ゴールによる適応的介入
- Authors: Aishwarya Mandyam, Matthew Jörke, William Denton, Barbara E. Engelhardt, Emma Brunskill,
- Abstract要約: モバイルヘルスアプリケーションは、低コストでスケーラブルなヘルス行動変化促進のための有望な道を示す。
個人固有の目標、好み、生活状況に対するアドバイスを調整することは、健康コーチングの重要な要素である。
パーソナライズされた報酬関数に対応する新しいトンプソンサンプリングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 17.688448640253494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Promoting healthy lifestyle behaviors remains a major public health concern, particularly due to their crucial role in preventing chronic conditions such as cancer, heart disease, and type 2 diabetes. Mobile health applications present a promising avenue for low-cost, scalable health behavior change promotion. Researchers are increasingly exploring adaptive algorithms that personalize interventions to each person's unique context. However, in empirical studies, mobile health applications often suffer from small effect sizes and low adherence rates, particularly in comparison to human coaching. Tailoring advice to a person's unique goals, preferences, and life circumstances is a critical component of health coaching that has been underutilized in adaptive algorithms for mobile health interventions. To address this, we introduce a new Thompson sampling algorithm that can accommodate personalized reward functions (i.e., goals, preferences, and constraints), while also leveraging data sharing across individuals to more quickly be able to provide effective recommendations. We prove that our modification incurs only a constant penalty on cumulative regret while preserving the sample complexity benefits of data sharing. We present empirical results on synthetic and semi-synthetic physical activity simulators, where in the latter we conducted an online survey to solicit preference data relating to physical activity, which we use to construct realistic reward models that leverages historical data from another study. Our algorithm achieves substantial performance improvements compared to baselines that do not share data or do not optimize for individualized rewards.
- Abstract(参考訳): 健康な生活習慣の促進は、特にがん、心臓病、タイプ2糖尿病などの慢性疾患の予防に重要な役割を担っているため、公衆衛生上の問題となっている。
モバイルヘルスアプリケーションは、低コストでスケーラブルなヘルス行動変化促進のための有望な道を示す。
研究者は、各人のユニークなコンテキストに対する介入をパーソナライズする適応アルゴリズムを探求している。
しかしながら、実証的研究では、モバイル健康アプリケーションは、特に人間のコーチングと比較して、小さな効果の大きさと低い付着率に悩まされることが多い。
個人の独特な目標、好み、生活状況に対するアドバイスの調整は、モバイル健康介入のための適応アルゴリズムでは使われていない健康コーチングの重要な要素である。
これを解決するために、パーソナライズされた報酬関数(ゴール、選好、制約など)に対応できる新しいトンプソンサンプリングアルゴリズムを導入し、個人間でのデータ共有を活用して、より迅速に効果的なレコメンデーションを提供する。
我々の修正は、データ共有の複雑さの利点を保ちながら、累積的後悔に対して一定のペナルティしか生じないことを示す。
合成および半合成物理活動シミュレータの実証実験結果を示し、後者では、身体活動に関する嗜好データを求めるオンライン調査を行い、それを用いて、他の研究の歴史的データを利用した現実的な報酬モデルを構築した。
本アルゴリズムは,データ共有や個別報酬の最適化を行わないベースラインと比較して,大幅な性能向上を実現している。
関連論文リスト
- Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Generating Synthetic Health Sensor Data for Privacy-Preserving Wearable Stress Detection [1.3604778572442302]
ストレスの瞬間に関連するマルチセンサ型スマートウォッチのヘルスリーダーのプライバシ・アウェア・シンセサイザー化について紹介する。
本手法は患者情報を保護するだけでなく,データ利用率の向上にも寄与する。
論文 参考訳(メタデータ) (2024-01-24T09:44:57Z) - Policy Optimization for Personalized Interventions in Behavioral Health [8.10897203067601]
デジタルプラットフォームを通じて提供される行動的健康介入は、健康結果を大幅に改善する可能性がある。
患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討した。
患者システムの状態空間を個別のレベルに分解するDecompPIをダブする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-21T21:42:03Z) - Zero-shot causal learning [64.9368337542558]
CaMLは因果メタラーニングフレームワークであり、各介入の効果をタスクとしてパーソナライズした予測を定式化する。
トレーニング時に存在しない新規介入のパーソナライズされた効果を予測することができることを示す。
論文 参考訳(メタデータ) (2023-01-28T20:14:11Z) - Data-pooling Reinforcement Learning for Personalized Healthcare
Intervention [20.436521180168455]
我々は、一般的な摂動値反復フレームワークに基づく新しいデータプール強化学習(RL)アルゴリズムを開発した。
提案アルゴリズムは,従来の手法では推定精度とは対照的に,(後悔によって測定された)決定性能と直接結びつくことの重み付けという,3つの主要な革新とともに,履歴データを適応的にプールする。
提案手法の理論的発展を実証的に優れた性能で実証し,未計画の読解を防止するために,解凍後介入の文脈におけるケーススタディにより検証した。
論文 参考訳(メタデータ) (2022-11-16T15:52:49Z) - Adaptive Identification of Populations with Treatment Benefit in
Clinical Trials: Machine Learning Challenges and Solutions [78.31410227443102]
確定的臨床試験において,特定の治療の恩恵を受ける患者サブポピュレーションを適応的に同定する問題について検討した。
サブポピュレーション構築のためのメタアルゴリズムであるAdaGGIとAdaGCPIを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:27:49Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z) - Power Constrained Bandits [46.44025793243983]
既存のアルゴリズムを改良する汎用メタアルゴリズムを開発した。
我々のメタアルゴリズムは、統計的研究に現れる可能性のある様々なモデルの誤特定に対して堅牢である。
論文 参考訳(メタデータ) (2020-04-13T23:08:52Z) - Rapidly Personalizing Mobile Health Treatment Policies with Limited Data [9.07325490998379]
我々は、他のユーザのデータを適応的かつ原則的に利用することで、パーソナライズされたポリシーを学ぶIntelligentPoolingを提案する。
我々は、IntelligentPoolingが、すべての生成モデルで最先端よりも平均26%低い後悔を達成していることを示す。
論文 参考訳(メタデータ) (2020-02-23T18:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。