論文の概要: IntelligentPooling: Practical Thompson Sampling for mHealth
- arxiv url: http://arxiv.org/abs/2008.01571v2
- Date: Sat, 12 Dec 2020 21:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:21:08.390967
- Title: IntelligentPooling: Practical Thompson Sampling for mHealth
- Title(参考訳): IntelligentPooling: mHealthのための実践的なトンプソンサンプリング
- Authors: Sabina Tomkins, Peng Liao, Predrag Klasnja and Susan Murphy
- Abstract要約: 強化学習は、シーケンシャルな処理決定を最適に行う方法を学ぶのに最適である。
我々はThompson-Sampling banditアルゴリズムを一般化してIntelligentPoolingを開発した。
我々は、IntelligentPoolingが、最先端技術よりも平均26%低い後悔を達成していることを示す。
- 参考スコア(独自算出の注目度): 0.38998241153792446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In mobile health (mHealth) smart devices deliver behavioral treatments
repeatedly over time to a user with the goal of helping the user adopt and
maintain healthy behaviors. Reinforcement learning appears ideal for learning
how to optimally make these sequential treatment decisions. However,
significant challenges must be overcome before reinforcement learning can be
effectively deployed in a mobile healthcare setting. In this work we are
concerned with the following challenges: 1) individuals who are in the same
context can exhibit differential response to treatments 2) only a limited
amount of data is available for learning on any one individual, and 3)
non-stationary responses to treatment. To address these challenges we
generalize Thompson-Sampling bandit algorithms to develop IntelligentPooling.
IntelligentPooling learns personalized treatment policies thus addressing
challenge one. To address the second challenge, IntelligentPooling updates each
user's degree of personalization while making use of available data on other
users to speed up learning. Lastly, IntelligentPooling allows responsivity to
vary as a function of a user's time since beginning treatment, thus addressing
challenge three. We show that IntelligentPooling achieves an average of 26%
lower regret than state-of-the-art. We demonstrate the promise of this approach
and its ability to learn from even a small group of users in a live clinical
trial.
- Abstract(参考訳): モバイルヘルス(mHealth)のスマートデバイスは、ユーザーが健康的な行動を採用し、維持するのを助けることを目的として、時間とともに繰り返し行動療法をユーザーに届ける。
強化学習は、これらのシーケンシャルな処理決定を最適に行う方法を学ぶのに最適である。
しかし、強化学習がモバイル医療環境で効果的に展開される前に、大きな課題を克服しなければならない。
この作業では、次のような課題が懸念されています。
1)同じ状況の個人は治療に対する異なる反応を示すことができる
2)一方の個人について学習するには限られた量のデータしか利用できない。
3)治療に対する非定常反応。
これらの課題に対処するため、Thompson-Sampling banditアルゴリズムを一般化し、IntelligentPoolingを開発した。
IntelligentPoolingはパーソナライズされた治療ポリシーを学び、課題に対処する。
2つ目の課題に対処するため、intelligentpoolingは各ユーザのパーソナライズ度を更新し、他のユーザの利用可能なデータを使用して学習をスピードアップする。
最後に、intelligentpoolingによって、応答性は、治療開始時からユーザの時間の関数として変化するため、チャレンジ3に対処できる。
我々はIntelligentPoolingが最先端技術よりも平均26%低い後悔を達成していることを示す。
我々は、このアプローチの可能性を実証し、実際に臨床試験を行う少数のユーザーから学ぶことができることを実証する。
関連論文リスト
- Can machine learning solve the challenge of adaptive learning and the individualization of learning paths? A field experiment in an online learning platform [0.8437187555622164]
デジタル技術に基づく学習内容の個別化は、大きな個人的および社会的利益をもたらす。
大規模なデジタル自己学習プラットフォーム上でランダム化制御試験を行う。
我々は,2つの畳み込みニューラルネットワークに基づくアルゴリズムを開発し,学習経路に応じて4,365ドルの学習者にタスクを割り当てる。
論文 参考訳(メタデータ) (2024-07-03T14:04:05Z) - Learning Task Decomposition to Assist Humans in Competitive Programming [90.4846613669734]
タスク分解学習のための新しい目的,いわゆる値(AssistV)を導入する。
我々は、さまざまな分解されたソリューションに対して、人間の修理経験のデータセットを収集する。
人間の177時間以内の研究では、非専門家が33.3%の問題を解き、それらを3.3倍スピードアップさせ、無支援の専門家にマッチさせる権限を与える。
論文 参考訳(メタデータ) (2024-06-07T03:27:51Z) - Uncertainty of Thoughts: Uncertainty-Aware Planning Enhances Information Seeking in Large Language Models [73.79091519226026]
Uncertainty of Thoughts (UoT) は、大きな言語モデルを拡張するアルゴリズムであり、効果的な質問をすることで積極的に情報を求めることができる。
医療診断、トラブルシューティング、および20の質問ゲームに関する実験において、UoTは、タスク完了の成功率において平均38.1%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-02-05T18:28:44Z) - Determining the Difficulties of Students With Dyslexia via Virtual
Reality and Artificial Intelligence: An Exploratory Analysis [0.0]
VRAIlexiaプロジェクトは、この問題を解決するために、2つの異なるツールを提案している。
最初のものは、特定の心理学的・心理学的テストの実施のために、高等教育機関(Higher Education Institutions)のディプレックス学の学生の間で作成され、配布されている。
第2のツールは、アプリケーションやその他の調査を通じて収集されたデータに、特定の人工知能アルゴリズムを適用する。
論文 参考訳(メタデータ) (2024-01-15T20:26:09Z) - BrainWash: A Poisoning Attack to Forget in Continual Learning [22.512552596310176]
ブレインウォッシュ(BrainWash)は、連続学習者に忘れを強いるための新しいデータ中毒法である。
このアプローチの重要な特徴は、アタッカーが以前のタスクのデータにアクセスする必要がなくなることです。
実験では,BrainWashの有効性を強調し,各種正規化に基づく連続学習手法における性能劣化を示す。
論文 参考訳(メタデータ) (2023-11-20T18:26:01Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Continual Learning and Private Unlearning [49.848423659220444]
本稿では、継続学習とプライベートアンラーニング(CLPU)問題を定式化する。
これはCLPU問題を解決するための第一歩として、単純だが完全にプライベートなソリューションであるCLPU-DER++を紹介している。
論文 参考訳(メタデータ) (2022-03-24T02:40:33Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Guided Exploration with Proximal Policy Optimization using a Single
Demonstration [5.076419064097734]
エージェントを実演と経験の組み合わせで訓練し、初期条件の異なる問題を解く。
エージェントは、自身の過去の軌跡を再生することで、その性能を高め、困難な問題に対処することができる。
私たちの知識を最大限に活用するために、人間の実演を1つだけ使う前に、同等の難易度を持つ3次元環境でタスクを学習することは、これまで考えられなかった。
論文 参考訳(メタデータ) (2020-07-07T10:30:32Z) - Rapidly Personalizing Mobile Health Treatment Policies with Limited Data [9.07325490998379]
我々は、他のユーザのデータを適応的かつ原則的に利用することで、パーソナライズされたポリシーを学ぶIntelligentPoolingを提案する。
我々は、IntelligentPoolingが、すべての生成モデルで最先端よりも平均26%低い後悔を達成していることを示す。
論文 参考訳(メタデータ) (2020-02-23T18:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。