論文の概要: Offline Contextual Multi-armed Bandits for Mobile Health Interventions:
A Case Study on Emotion Regulation
- arxiv url: http://arxiv.org/abs/2008.09472v1
- Date: Fri, 21 Aug 2020 13:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:29:49.683110
- Title: Offline Contextual Multi-armed Bandits for Mobile Health Interventions:
A Case Study on Emotion Regulation
- Title(参考訳): モバイルヘルス介入のためのオフラインマルチアームバンド : 感情制御を事例として
- Authors: Mawulolo K. Ameko, Miranda L. Beltzer, Lihua Cai, Mehdi Boukhechba,
Bethany A. Teachman, Laura E. Barnes
- Abstract要約: 本稿では,実世界の歴史的モバイルデジタルデータを用いた感情制御のための治療レコメンデーションシステムの開発について述べる。
実験の結果,提案手法はベースライン手法よりも2倍頑健なオフライン学習アルゴリズムが優れていることがわかった。
- 参考スコア(独自算出の注目度): 2.8680209551947473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Delivering treatment recommendations via pervasive electronic devices such as
mobile phones has the potential to be a viable and scalable treatment medium
for long-term health behavior management. But active experimentation of
treatment options can be time-consuming, expensive and altogether unethical in
some cases. There is a growing interest in methodological approaches that allow
an experimenter to learn and evaluate the usefulness of a new treatment
strategy before deployment. We present the first development of a treatment
recommender system for emotion regulation using real-world historical mobile
digital data from n = 114 high socially anxious participants to test the
usefulness of new emotion regulation strategies. We explore a number of offline
contextual bandits estimators for learning and propose a general framework for
learning algorithms. Our experimentation shows that the proposed doubly robust
offline learning algorithms performed significantly better than baseline
approaches, suggesting that this type of recommender algorithm could improve
emotion regulation. Given that emotion regulation is impaired across many
mental illnesses and such a recommender algorithm could be scaled up easily,
this approach holds potential to increase access to treatment for many people.
We also share some insights that allow us to translate contextual bandit models
to this complex real-world data, including which contextual features appear to
be most important for predicting emotion regulation strategy effectiveness.
- Abstract(参考訳): 携帯電話などの普及型電子機器による治療勧告の提供は、長期的な健康行動管理のための、実用的でスケーラブルな治療媒体になる可能性がある。
しかし、治療オプションの積極的な実験は、時間がかかり、高価であり、場合によっては全く倫理的ではない。
実験者が展開前に新しい治療戦略の有用性を学習し評価できる方法論的アプローチへの関心が高まっている。
そこで本研究では,n=114名から得られた実世界履歴モバイルデジタルデータを用いて感情制御のための治療レコメンデータシステムの開発を行い,新しい感情制御戦略の有用性を検証した。
学習のためのオフラインコンテキスト帯域推定器を多数検討し,学習アルゴリズムのための一般的なフレームワークを提案する。
実験の結果,提案手法は,ベースラインアプローチよりも有意に頑健なオフライン学習アルゴリズムが評価され,感情制御が改善される可能性が示唆された。
感情制御は多くの精神疾患で障害があり、そのようなレコメンデーションアルゴリズムは簡単にスケールアップできるため、このアプローチは多くの人々の治療法へのアクセスを高める可能性を秘めている。
また、感情調整戦略の有効性を予測する上で最も重要なコンテキスト機能を含む、複雑な現実世界のデータにコンテキストバンディットモデルを変換できるいくつかの洞察を共有しています。
関連論文リスト
- EmoScan: Automatic Screening of Depression Symptoms in Romanized Sinhala Tweets [0.0]
この研究は、抑うつのリスクがある個人を特定するために、ロマタイズド・シンハラのソーシャルメディアデータの利用を探求する。
言語パターン、感情、行動の手がかりを分析することにより、抑うつ症状の自動スクリーニングのための機械学習ベースのフレームワークが提示される。
論文 参考訳(メタデータ) (2024-03-28T10:31:09Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Using Adaptive Bandit Experiments to Increase and Investigate Engagement
in Mental Health [14.20153035241548]
本稿では,Banditや他のアルゴリズムを用いてテキストメッセージ介入コンポーネントを適応させるソフトウェアシステムを提案する。
我々は,大規模メンタルヘルス非営利組織を通じて採用した1100名のユーザに対して,テキスト・メッセージベースのDMH介入を展開させることで,システムの評価を行った。
論文 参考訳(メタデータ) (2023-10-13T22:59:56Z) - Taxonomy Adaptive Cross-Domain Adaptation in Medical Imaging via
Optimization Trajectory Distillation [73.83178465971552]
自動医用画像解析の成功は、大規模かつ専門家による注釈付きトレーニングセットに依存する。
非教師なしドメイン適応(UDA)はラベル付きデータ収集の負担を軽減するための有望なアプローチである。
本稿では,2つの技術的課題に新しい視点から対処する統一的手法である最適化トラジェクトリ蒸留を提案する。
論文 参考訳(メタデータ) (2023-07-27T08:58:05Z) - Contextual Bandits with Budgeted Information Reveal [3.861395476387163]
コンテキストバンディットアルゴリズムは、パーソナライズされた治療を推奨するために、デジタルヘルスで一般的に使用される。
治療の有効性を確保するため、患者は直接の利益のない行動を取るよう要求されることが多い。
本稿では,この問題に対処するための新しい最適化と学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-29T16:18:28Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - Offline Policy Optimization with Eligible Actions [34.4530766779594]
オフラインポリシーの最適化は多くの現実世界の意思決定問題に大きな影響を与える可能性がある。
重要度サンプリングとその変種は、オフラインポリシー評価において一般的に使用されるタイプの推定器である。
そこで本稿では, 州ごとの正規化制約によって過度に適合することを避けるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-01T19:18:15Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z) - Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems [108.81683598693539]
オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
論文 参考訳(メタデータ) (2020-05-04T17:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。