論文の概要: Reinforcement Learning in Modern Biostatistics: Constructing Optimal
Adaptive Interventions
- arxiv url: http://arxiv.org/abs/2203.02605v2
- Date: Tue, 18 Apr 2023 13:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 19:11:16.806605
- Title: Reinforcement Learning in Modern Biostatistics: Constructing Optimal
Adaptive Interventions
- Title(参考訳): 現代統計学における強化学習 : 最適適応的介入の構築
- Authors: Nina Deliu, Joseph Jay Williams and Bibhas Chakraborty
- Abstract要約: 我々は,AI学習のための強化学習手法について,初めて統一的な調査を行った。
動的治療体制の2つのAI領域と、モバイルヘルスにおけるジャスト・イン・タイム適応的介入を橋渡しします。
- 参考スコア(独自算出の注目度): 7.94548720704463
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, reinforcement learning (RL) has acquired a prominent
position in the space of health-related sequential decision-making, becoming an
increasingly popular tool for delivering adaptive interventions (AIs). However,
despite potential benefits, its real-life application is still limited, partly
due to a poor synergy between the methodological and the applied communities.
In this work, we provide the first unified survey on RL methods for learning
AIs, using the common methodological umbrella of RL to bridge the two AI areas
of dynamic treatment regimes and just-in-time adaptive interventions in mobile
health. We outline similarities and differences between these two AI domains
and discuss their implications for using RL. Finally, we leverage our
experience in designing case studies in both areas to illustrate the tremendous
collaboration opportunities between statistical, RL, and healthcare researchers
in the space of AIs.
- Abstract(参考訳): 近年、強化学習(RL)は、健康関連シーケンシャルな意思決定の領域において顕著な地位を獲得し、適応的介入(AI)を提供するツールとしてますます人気が高まっている。
しかし,応用コミュニティと方法論の相乗効果が乏しいこともあって,現実の応用は依然として限られている。
本研究では、RLの一般的な方法論の傘を用いて、動的治療体制の2つのAI領域と、モバイルヘルスにおけるジャスト・イン・タイム適応的介入を橋渡しする。
これら2つのaiドメイン間の類似点と相違点を概説し、rlの使用意義について論じる。
そして最後に,両分野のケーススタディの設計に私たちの経験を活用して,ais分野における統計的,rl,医療研究者間の膨大なコラボレーションの機会について説明します。
関連論文リスト
- Federated Learning for Estimating Heterogeneous Treatment Effects [8.95489822791622]
ヘテロジニアス処理効果(HTE)を推定するための現在の機械学習アプローチでは、処理毎にかなりの量のデータにアクセスする必要がある。
フェデレートラーニング(Federated Learning)を通じて,組織間におけるHTE推定者の協調学習のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-27T17:33:23Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Taxonomy Adaptive Cross-Domain Adaptation in Medical Imaging via
Optimization Trajectory Distillation [73.83178465971552]
自動医用画像解析の成功は、大規模かつ専門家による注釈付きトレーニングセットに依存する。
非教師なしドメイン適応(UDA)はラベル付きデータ収集の負担を軽減するための有望なアプローチである。
本稿では,2つの技術的課題に新しい視点から対処する統一的手法である最適化トラジェクトリ蒸留を提案する。
論文 参考訳(メタデータ) (2023-07-27T08:58:05Z) - A Meta-Learning Method for Estimation of Causal Excursion Effects to
Assess Time-Varying Moderation [0.0]
本稿では,メタ・ラーナーの観点からの因果抽出効果の推定について再検討する。
これは、新しい推定器の特性を示し、理論上および広範なシミュレーション実験を通じてそれらを比較する。
論文 参考訳(メタデータ) (2023-06-28T15:19:33Z) - Demonstration-free Autonomous Reinforcement Learning via Implicit and
Bidirectional Curriculum [22.32327908453603]
Indicit and Bi-directional Curriculum (IBC) を用いた実証自由強化学習アルゴリズムを提案する。
学習の進捗に応じて条件付きで活性化される補助エージェントと、最適輸送に基づく双方向ゴールカリキュラムにより、本手法は従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-17T04:31:36Z) - Enforcing the consensus between Trajectory Optimization and Policy
Learning for precise robot control [75.28441662678394]
強化学習(RL)と軌道最適化(TO)は強い相補的優位性を示す。
グローバルコントロールポリシを迅速に学習する上で,これらのアプローチに対して,いくつかの改良が提案されている。
論文 参考訳(メタデータ) (2022-09-19T13:32:09Z) - Adaptive Identification of Populations with Treatment Benefit in
Clinical Trials: Machine Learning Challenges and Solutions [78.31410227443102]
確定的臨床試験において,特定の治療の恩恵を受ける患者サブポピュレーションを適応的に同定する問題について検討した。
サブポピュレーション構築のためのメタアルゴリズムであるAdaGGIとAdaGCPIを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:27:49Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Who Goes First? Influences of Human-AI Workflow on Decision Making in
Clinical Imaging [24.911186503082465]
本研究は, 放射線医学における診断セッション開始時と, 放射線科医の仮決定後のAI支援の効果について検討した。
その結果、AI推論をレビューする前に仮回答を登録するよう求められている参加者は、アドバイスが正確かどうかに関わらず、AIに同意する確率が低く、AIと意見の相違がある場合には、同僚の第二の意見を求める確率が低いことがわかった。
論文 参考訳(メタデータ) (2022-05-19T16:59:25Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Sample-Efficient Reinforcement Learning via Counterfactual-Based Data
Augmentation [15.451690870640295]
医療などのいくつかのシナリオでは、通常、各患者に利用可能なレコードはごくわずかであり、現在の強化学習アルゴリズムの適用を妨げる。
構造因果モデル(SCM)を利用して状態ダイナミクスをモデル化する,データ効率の高いRLアルゴリズムを提案する。
本研究は, 軽度条件下では反実結果が識別可能であり, 反実に基づく拡張データセット上のq学習が最適値関数に収束することを示す。
論文 参考訳(メタデータ) (2020-12-16T17:21:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。