論文の概要: Policy Optimization for Personalized Interventions in Behavioral Health
- arxiv url: http://arxiv.org/abs/2303.12206v2
- Date: Sat, 30 Sep 2023 17:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 19:56:04.231011
- Title: Policy Optimization for Personalized Interventions in Behavioral Health
- Title(参考訳): 行動保健における個人化介入の政策最適化
- Authors: Jackie Baek, Justin J. Boutilier, Vivek F. Farias, Jonas Oddur
Jonasson, Erez Yoeli
- Abstract要約: デジタルプラットフォームを通じて提供される行動的健康介入は、健康結果を大幅に改善する可能性がある。
患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討した。
この問題に対する新たなアプローチとして,政策イテレーションの一段階を近似したDecompPIを提案する。
- 参考スコア(独自算出の注目度): 8.69967783513041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Behavioral health interventions, delivered through digital platforms, have
the potential to significantly improve health outcomes, through education,
motivation, reminders, and outreach. We study the problem of optimizing
personalized interventions for patients to maximize a long-term outcome, where
interventions are costly and capacity-constrained. We assume there exists a
dataset collected from an initial pilot study that we can leverage. We present
a new approach for this problem that we dub DecompPI, which approximates one
step of policy iteration. Implementing DecompPI simply consists of a prediction
task using the dataset, alleviating the need for online experimentation.
DecompPI is a generic model-free algorithm that can be used irrespective of the
underlying patient behavior model. We derive theoretical guarantees on a
simple, special case of the model that is representative of our problem
setting. We establish an approximation ratio for DecompPI with respect to the
improvement beyond a null policy that does not allocate interventions.
Specifically, when the initial policy used to collect the data is randomized,
the approximation ratio of the improvement approaches 1/2 as the intervention
capacity of the initial policy decreases. We show that this guarantee is robust
to estimation errors. We conduct a rigorous empirical case study using
real-world data from a mobile health platform for improving treatment adherence
for tuberculosis. Using a validated simulation model, we demonstrate that
DecompPI can provide the same efficacy as the status quo approach with
approximately half the capacity of interventions. DecompPI is simple and easy
to implement for organizations aiming to improve long-term behavior through
targeted interventions, and this paper demonstrates its strong performance both
theoretically and empirically.
- Abstract(参考訳): デジタルプラットフォームを通じて提供される行動的健康介入は、教育、モチベーション、リマインダー、アウトリーチを通じて、健康成果を著しく改善する可能性がある。
本研究では,患者に対するパーソナライズされた介入を最適化して長期的効果を最大化する問題について検討する。
最初のパイロット研究から収集したデータセットが、私たちが活用できると仮定します。
この問題に対する新たなアプローチとして,政策イテレーションの一段階を近似したDecompPIを提案する。
DecompPIの実装は、単にデータセットを使用した予測タスクで構成され、オンライン実験の必要性を軽減する。
DecompPIは、基礎となる患者行動モデルに関係なく使用できる汎用的なモデルフリーアルゴリズムである。
我々は、我々の問題設定を代表するモデルの単純で特別な場合の理論的保証を導出する。
我々は、介入を割り当てないnullポリシーを超えた改善に関して、DecompPIの近似比を確立する。
具体的には、データ収集に使用する初期ポリシーがランダム化されると、初期ポリシーの介入能力が低下するにつれて改善の近似比率が1/2に近づく。
この保証は推定誤差に対して堅牢であることを示す。
我々は, 実世界データを用いた厳密な事例研究を行い, 結核治療の付着性を改善する。
検証されたシミュレーションモデルを用いて、DecompPIは、約半分の介入能力でステータスクオアプローチと同じ効果を提供できることを示した。
DecompPIは,対象とした介入による長期的行動改善を目指す組織に対して,シンプルかつ簡単な実装である。
関連論文リスト
- MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Doubly Robust Proximal Causal Learning for Continuous Treatments [56.05592840537398]
本稿では,カーネルベースの2倍頑健な因果学習推定器を提案する。
オラクル形式は影響関数の一貫した近似であることを示す。
次に、平均二乗誤差の観点から総合収束解析を行う。
論文 参考訳(メタデータ) (2023-09-22T12:18:53Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning
Approach to Critical Care [68.8204255655161]
我々は、より信頼性の高いクリティカルケアポリシーを得ることができる深いQ-ラーニングアプローチを導入する。
まず、利用可能なすべての報酬に基づいてアクションセットを抽出し、次に、スパース主報酬に基づいて最終モデルを訓練し、制限されたアクションセットで達成する。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Causal Inference under Data Restrictions [0.0]
この論文は、不確実性とデータ制限の下での現代の因果推論に焦点を当てている。
これには、ネオアジュバント臨床試験、分散データネットワーク、堅牢な個別化意思決定へのアプリケーションが含まれる。
論文 参考訳(メタデータ) (2023-01-20T20:14:32Z) - Data-pooling Reinforcement Learning for Personalized Healthcare
Intervention [20.436521180168455]
我々は、一般的な摂動値反復フレームワークに基づく新しいデータプール強化学習(RL)アルゴリズムを開発した。
提案アルゴリズムは,従来の手法では推定精度とは対照的に,(後悔によって測定された)決定性能と直接結びつくことの重み付けという,3つの主要な革新とともに,履歴データを適応的にプールする。
提案手法の理論的発展を実証的に優れた性能で実証し,未計画の読解を防止するために,解凍後介入の文脈におけるケーススタディにより検証した。
論文 参考訳(メタデータ) (2022-11-16T15:52:49Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Sample-Efficient Reinforcement Learning via Counterfactual-Based Data
Augmentation [15.451690870640295]
医療などのいくつかのシナリオでは、通常、各患者に利用可能なレコードはごくわずかであり、現在の強化学習アルゴリズムの適用を妨げる。
構造因果モデル(SCM)を利用して状態ダイナミクスをモデル化する,データ効率の高いRLアルゴリズムを提案する。
本研究は, 軽度条件下では反実結果が識別可能であり, 反実に基づく拡張データセット上のq学習が最適値関数に収束することを示す。
論文 参考訳(メタデータ) (2020-12-16T17:21:13Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z) - Generalization Bounds and Representation Learning for Estimation of
Potential Outcomes and Causal Effects [61.03579766573421]
代替薬に対する患者一人の反応など,個人レベルの因果効果の推定について検討した。
我々は,表現の誘導的処理群距離を正規化することにより,境界を最小化する表現学習アルゴリズムを考案した。
これらのアルゴリズムを拡張して、重み付き表現を同時に学習し、治療群距離をさらに削減する。
論文 参考訳(メタデータ) (2020-01-21T10:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。