論文の概要: Policy Optimization for Personalized Interventions in Behavioral Health
- arxiv url: http://arxiv.org/abs/2303.12206v1
- Date: Tue, 21 Mar 2023 21:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 16:07:31.060110
- Title: Policy Optimization for Personalized Interventions in Behavioral Health
- Title(参考訳): 行動保健における個人化介入の政策最適化
- Authors: Jackie Baek, Justin J. Boutilier, Vivek F. Farias, Jonas Oddur
Jonasson, Erez Yoeli
- Abstract要約: デジタルプラットフォームを通じて提供される行動的健康介入は、健康結果を大幅に改善する可能性がある。
患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討した。
ポリシー反復の1ステップを近似したDecompPIをダブした新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.7973593768859457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Problem definition: Behavioral health interventions, delivered through
digital platforms, have the potential to significantly improve health outcomes,
through education, motivation, reminders, and outreach. We study the problem of
optimizing personalized interventions for patients to maximize some long-term
outcome, in a setting where interventions are costly and capacity-constrained.
Methodology/results: This paper provides a model-free approach to solving
this problem. We find that generic model-free approaches from the reinforcement
learning literature are too data intensive for healthcare applications, while
simpler bandit approaches make progress at the expense of ignoring long-term
patient dynamics. We present a new algorithm we dub DecompPI that approximates
one step of policy iteration. Implementing DecompPI simply consists of a
prediction task from offline data, alleviating the need for online
experimentation. Theoretically, we show that under a natural set of structural
assumptions on patient dynamics, DecompPI surprisingly recovers at least 1/2 of
the improvement possible between a naive baseline policy and the optimal
policy. At the same time, DecompPI is both robust to estimation errors and
interpretable. Through an empirical case study on a mobile health platform for
improving treatment adherence for tuberculosis, we find that DecompPI can
provide the same efficacy as the status quo with approximately half the
capacity of interventions.
Managerial implications: DecompPI is general and is easily implementable for
organizations aiming to improve long-term behavior through targeted
interventions. Our case study suggests that the platform's costs of deploying
interventions can potentially be cut by 50%, which facilitates the ability to
scale up the system in a cost-efficient fashion.
- Abstract(参考訳): 問題定義: デジタルプラットフォームを通じて提供される行動的健康介入は、教育、モチベーション、リマインダー、アウトリーチを通じて、健康成果を著しく改善する可能性がある。
本研究では,患者に対するパーソナライズされた介入を最適化し,長期的効果を最大化する問題について検討する。
methodology/results: この問題を解決するためのモデルフリーなアプローチを提供する。
強化学習文献からの一般的なモデルフリーアプローチは、医療応用にはデータ集約的すぎるが、より単純なバンディットアプローチは、長期患者のダイナミクスを無視して進歩する。
我々は,ポリシー反復の一ステップを近似する新しいアルゴリズムを提案する。
DecompPIの実装は単にオフラインデータからの予測タスクで構成され、オンライン実験の必要性を軽減する。
理論的には、患者動態に関する自然な仮定の下で、DecompPIは、素早い基本方針と最適方針の間の改善の少なくとも1/2を驚くほど回復させる。
同時に、decomppiは推定エラーに対して頑健であり、解釈可能である。
結核に対する治療適応性を改善するための移動型健康プラットフォームに関する実証研究を通じて,DecompPIは介入能力の約半分で,現状のクオと同等の有効性を提供できることがわかった。
管理的意味: decomppiは一般的であり、ターゲットとした介入を通じて長期的な行動を改善することを目的とした組織に容易に実装できる。
当社のケーススタディでは、プラットフォームが介入するコストを50%削減できる可能性があり、コスト効率のよい方法でシステムをスケールアップできる可能性が示唆されています。
関連論文リスト
- MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Doubly Robust Proximal Causal Learning for Continuous Treatments [56.05592840537398]
本稿では,カーネルベースの2倍頑健な因果学習推定器を提案する。
オラクル形式は影響関数の一貫した近似であることを示す。
次に、平均二乗誤差の観点から総合収束解析を行う。
論文 参考訳(メタデータ) (2023-09-22T12:18:53Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning
Approach to Critical Care [68.8204255655161]
我々は、より信頼性の高いクリティカルケアポリシーを得ることができる深いQ-ラーニングアプローチを導入する。
まず、利用可能なすべての報酬に基づいてアクションセットを抽出し、次に、スパース主報酬に基づいて最終モデルを訓練し、制限されたアクションセットで達成する。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Causal Inference under Data Restrictions [0.0]
この論文は、不確実性とデータ制限の下での現代の因果推論に焦点を当てている。
これには、ネオアジュバント臨床試験、分散データネットワーク、堅牢な個別化意思決定へのアプリケーションが含まれる。
論文 参考訳(メタデータ) (2023-01-20T20:14:32Z) - Data-pooling Reinforcement Learning for Personalized Healthcare
Intervention [20.436521180168455]
我々は、一般的な摂動値反復フレームワークに基づく新しいデータプール強化学習(RL)アルゴリズムを開発した。
提案アルゴリズムは,従来の手法では推定精度とは対照的に,(後悔によって測定された)決定性能と直接結びつくことの重み付けという,3つの主要な革新とともに,履歴データを適応的にプールする。
提案手法の理論的発展を実証的に優れた性能で実証し,未計画の読解を防止するために,解凍後介入の文脈におけるケーススタディにより検証した。
論文 参考訳(メタデータ) (2022-11-16T15:52:49Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Sample-Efficient Reinforcement Learning via Counterfactual-Based Data
Augmentation [15.451690870640295]
医療などのいくつかのシナリオでは、通常、各患者に利用可能なレコードはごくわずかであり、現在の強化学習アルゴリズムの適用を妨げる。
構造因果モデル(SCM)を利用して状態ダイナミクスをモデル化する,データ効率の高いRLアルゴリズムを提案する。
本研究は, 軽度条件下では反実結果が識別可能であり, 反実に基づく拡張データセット上のq学習が最適値関数に収束することを示す。
論文 参考訳(メタデータ) (2020-12-16T17:21:13Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z) - Generalization Bounds and Representation Learning for Estimation of
Potential Outcomes and Causal Effects [61.03579766573421]
代替薬に対する患者一人の反応など,個人レベルの因果効果の推定について検討した。
我々は,表現の誘導的処理群距離を正規化することにより,境界を最小化する表現学習アルゴリズムを考案した。
これらのアルゴリズムを拡張して、重み付き表現を同時に学習し、治療群距離をさらに削減する。
論文 参考訳(メタデータ) (2020-01-21T10:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。