論文の概要: Reinforcement Learning in Modern Biostatistics: Constructing Optimal
Adaptive Interventions
- arxiv url: http://arxiv.org/abs/2203.02605v1
- Date: Fri, 4 Mar 2022 23:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 09:31:52.811849
- Title: Reinforcement Learning in Modern Biostatistics: Constructing Optimal
Adaptive Interventions
- Title(参考訳): 現代統計学における強化学習 : 最適適応的介入の構築
- Authors: Nina Deliu, Joseph Jay Williams and Bibhas Chakraborty
- Abstract要約: 我々は、RL、因果推論、AIの領域を横断するユニークなフレームワークの下で、RLに寄与し、利益をもたらす可能性のあるさまざまなドメインを橋渡しすることを目指している。
モバイルヘルス(mHealth)における動的治療体制(DTR)とジャスト・イン・タイム適応的介入(mHealth)の両方を包含する、AI構築のためのRL手法に関する初の統一的な指導的調査を行った。
- 参考スコア(独自算出の注目度): 7.94548720704463
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Reinforcement learning (RL) is acquiring a key role in the space of adaptive
interventions (AIs), attracting a substantial interest within methodological
and theoretical literature and becoming increasingly popular within health
sciences. Despite potential benefits, its application in real life is still
limited due to several operational and statistical challenges--in addition to
ethical and cost issues among others--that remain open in part due to poor
communication and synergy between methodological and applied scientists. In
this work, we aim to bridge the different domains that contribute to and may
benefit from RL, under a unique framework that intersects the areas of RL,
causal inference, and AIs, among others. We provide the first unified
instructive survey on RL methods for building AIs, encompassing both dynamic
treatment regimes (DTRs) and just-in-time adaptive interventions in mobile
health (mHealth). We outline similarities and differences between the two
areas, and discuss their implications for using RL. We combine our relevant
methodological knowledge with motivating studies in both DTRs and mHealth to
illustrate the tremendous collaboration opportunities between statistical, RL,
and healthcare researchers in the space of AIs.
- Abstract(参考訳): 強化学習 (Reinforcement Learning, RL) は適応的介入 (Adaptive interventions, AIs) の分野において重要な役割を担い、方法論的・理論的文献にかなりの関心を惹きつけ、健康科学で人気を増している。
潜在的な利益にもかかわらず、実生活におけるその応用は、倫理的、コスト的な問題に加えて、いくつかの運用上の課題と統計上の課題により、依然として制限されている。
本研究では、RL、因果推論、AIといった分野を横断するユニークなフレームワークの下で、RLに寄与し、利益をもたらす可能性のあるさまざまなドメインを橋渡しすることを目的とする。
モバイルヘルス(mHealth)における動的治療体制(DTR)とジャスト・イン・タイム適応的介入(mHealth)の両方を包含する、AI構築のためのRL手法に関する初の統一的な指導的調査を行った。
両領域の類似点と相違点を概説し,RLの意義について論じる。
我々は、関連する方法論知識と、DTRとmHealthの両方でのモチベーション研究を組み合わせることで、AIの分野における統計学、RL、医療研究者の膨大な協力機会を説明する。
関連論文リスト
- Federated Learning for Estimating Heterogeneous Treatment Effects [8.95489822791622]
ヘテロジニアス処理効果(HTE)を推定するための現在の機械学習アプローチでは、処理毎にかなりの量のデータにアクセスする必要がある。
フェデレートラーニング(Federated Learning)を通じて,組織間におけるHTE推定者の協調学習のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-27T17:33:23Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Taxonomy Adaptive Cross-Domain Adaptation in Medical Imaging via
Optimization Trajectory Distillation [73.83178465971552]
自動医用画像解析の成功は、大規模かつ専門家による注釈付きトレーニングセットに依存する。
非教師なしドメイン適応(UDA)はラベル付きデータ収集の負担を軽減するための有望なアプローチである。
本稿では,2つの技術的課題に新しい視点から対処する統一的手法である最適化トラジェクトリ蒸留を提案する。
論文 参考訳(メタデータ) (2023-07-27T08:58:05Z) - A Meta-Learning Method for Estimation of Causal Excursion Effects to
Assess Time-Varying Moderation [0.0]
本稿では,メタ・ラーナーの観点からの因果抽出効果の推定について再検討する。
これは、新しい推定器の特性を示し、理論上および広範なシミュレーション実験を通じてそれらを比較する。
論文 参考訳(メタデータ) (2023-06-28T15:19:33Z) - Demonstration-free Autonomous Reinforcement Learning via Implicit and
Bidirectional Curriculum [22.32327908453603]
Indicit and Bi-directional Curriculum (IBC) を用いた実証自由強化学習アルゴリズムを提案する。
学習の進捗に応じて条件付きで活性化される補助エージェントと、最適輸送に基づく双方向ゴールカリキュラムにより、本手法は従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-17T04:31:36Z) - Enforcing the consensus between Trajectory Optimization and Policy
Learning for precise robot control [75.28441662678394]
強化学習(RL)と軌道最適化(TO)は強い相補的優位性を示す。
グローバルコントロールポリシを迅速に学習する上で,これらのアプローチに対して,いくつかの改良が提案されている。
論文 参考訳(メタデータ) (2022-09-19T13:32:09Z) - Adaptive Identification of Populations with Treatment Benefit in
Clinical Trials: Machine Learning Challenges and Solutions [78.31410227443102]
確定的臨床試験において,特定の治療の恩恵を受ける患者サブポピュレーションを適応的に同定する問題について検討した。
サブポピュレーション構築のためのメタアルゴリズムであるAdaGGIとAdaGCPIを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:27:49Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Who Goes First? Influences of Human-AI Workflow on Decision Making in
Clinical Imaging [24.911186503082465]
本研究は, 放射線医学における診断セッション開始時と, 放射線科医の仮決定後のAI支援の効果について検討した。
その結果、AI推論をレビューする前に仮回答を登録するよう求められている参加者は、アドバイスが正確かどうかに関わらず、AIに同意する確率が低く、AIと意見の相違がある場合には、同僚の第二の意見を求める確率が低いことがわかった。
論文 参考訳(メタデータ) (2022-05-19T16:59:25Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Sample-Efficient Reinforcement Learning via Counterfactual-Based Data
Augmentation [15.451690870640295]
医療などのいくつかのシナリオでは、通常、各患者に利用可能なレコードはごくわずかであり、現在の強化学習アルゴリズムの適用を妨げる。
構造因果モデル(SCM)を利用して状態ダイナミクスをモデル化する,データ効率の高いRLアルゴリズムを提案する。
本研究は, 軽度条件下では反実結果が識別可能であり, 反実に基づく拡張データセット上のq学習が最適値関数に収束することを示す。
論文 参考訳(メタデータ) (2020-12-16T17:21:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。