論文の概要: Efficient Public Health Intervention Planning Using Decomposition-Based
Decision-Focused Learning
- arxiv url: http://arxiv.org/abs/2403.05683v1
- Date: Fri, 8 Mar 2024 21:31:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:51:23.439271
- Title: Efficient Public Health Intervention Planning Using Decomposition-Based
Decision-Focused Learning
- Title(参考訳): 分解型意思決定型学習による効果的な公衆衛生介入計画
- Authors: Sanket Shah, Arun Suggala, Milind Tambe, Aparna Taneja
- Abstract要約: 介入計画の高速化のために、レスレスマルチアーマッドバンド(RMAB)の構造を利用する方法を示す。
私たちはインドのNGOであるARMMANの実際のデータを使って、我々のアプローチが最先端のアプローチよりも最大2桁高速であることを示す。
- 参考スコア(独自算出の注目度): 33.14258196945301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The declining participation of beneficiaries over time is a key concern in
public health programs. A popular strategy for improving retention is to have
health workers `intervene' on beneficiaries at risk of dropping out. However,
the availability and time of these health workers are limited resources. As a
result, there has been a line of research on optimizing these limited
intervention resources using Restless Multi-Armed Bandits (RMABs). The key
technical barrier to using this framework in practice lies in the need to
estimate the beneficiaries' RMAB parameters from historical data. Recent
research has shown that Decision-Focused Learning (DFL), which focuses on
maximizing the beneficiaries' adherence rather than predictive accuracy,
improves the performance of intervention targeting using RMABs. Unfortunately,
these gains come at a high computational cost because of the need to solve and
evaluate the RMAB in each DFL training step. In this paper, we provide a
principled way to exploit the structure of RMABs to speed up intervention
planning by cleverly decoupling the planning for different beneficiaries. We
use real-world data from an Indian NGO, ARMMAN, to show that our approach is up
to two orders of magnitude faster than the state-of-the-art approach while also
yielding superior model performance. This would enable the NGO to scale up
deployments using DFL to potentially millions of mothers, ultimately advancing
progress toward UNSDG 3.1.
- Abstract(参考訳): 長期にわたる受益者の参加の減少は、公衆衛生プログラムにおいて重要な懸念事項である。
留置を改善するための一般的な戦略は、退去リスクのある受益者に健康労働者を「介入」させることである。
しかし、これらの医療従事者の可用性と時間は限られた資源である。
その結果、これらの制限された介入資源をrestless multi-armed bandits (rmabs) を用いて最適化する研究が行われている。
このフレームワークを実際に使用する上で重要な技術的障壁は、過去のデータから受益者のRMABパラメータを推定する必要があることである。
近年の研究では、予測精度よりも受益者の順守を最大化する決定焦点学習(DFL)が、RMABを用いた介入目標の性能を向上させることが示されている。
残念ながら、これらのゲインは、各DFLトレーニングステップでRMABを解き、評価する必要があるため、高い計算コストがかかる。
本稿では,異なる受益者のための計画を巧みに分離することにより,rmabsの構造を活用し,介入計画の高速化を図るための原則的な方法を提案する。
我々は、インドのNGOであるARMMANの現実世界のデータを用いて、我々のアプローチが最先端のアプローチよりも最大2桁高速であり、優れたモデル性能が得られることを示す。
これにより、NGOは数百万人の母親にDFLを使って展開を拡大することができ、最終的にはUNSDG 3.1に向けて前進する。
関連論文リスト
- Bayesian Collaborative Bandits with Thompson Sampling for Improved Outreach in Maternal Health Program [36.10003434625494]
モバイルヘルス(mHealth)プログラムは、受益者への自動健康情報呼び出しのタイミングを最適化する上で、重要な課題に直面している。
本稿では,この協調バンディット問題に対するトンプソンサンプリングを用いた原理的アプローチを提案する。
我々は,世界最大規模の母体mHealthプログラムから,実世界のデータセット上での最先端のベースラインを大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-10-28T18:08:18Z) - Optimizing Vital Sign Monitoring in Resource-Constrained Maternal Care: An RL-Based Restless Bandit Approach [31.228987526386558]
ワイヤレスのバイタルサインモニタリングデバイスは、継続的監視のための労働効率の高いソリューションを提供する。
本稿では,Restless Multi-Armed Bandit パラダイムの変種としてモデル化することで,この問題に対するアロケーションアルゴリズムを考案する。
シミュレーションでは、我々の手法が最高のベースラインを最大4ドルまで上回ります。
論文 参考訳(メタデータ) (2024-10-10T21:20:07Z) - Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models [94.39278422567955]
人間の嗜好を微調整した大型言語モデル(LLM)は、その能力向上に成功している。
しかし、微調整中のLLMの安全性確保は依然として重要な懸念事項である。
本稿では,BFPO(Bi-Factorial Preference Optimization)と呼ばれる教師あり学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T17:31:21Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Limited Resource Allocation in a Non-Markovian World: The Case of
Maternal and Child Healthcare [27.812174610119452]
低リソース環境におけるスケジューリング介入の問題点を考察し,順応性やエンゲージメントを高めることを目的とする。
過去の研究は、この問題に対する数種類のRestless Multi-armed Bandit (RMAB) ベースのソリューションの開発に成功している。
我々のパートナーであるNGO ARMMAN の母体健康意識プログラムにおける実世界データに対する Markov の仮定から大きく逸脱した。
一般化された非マルコフ的RMAB設定に取り組むために、(i)各参加者の軌跡を時系列としてモデル化し、(ii)時系列予測モデルのパワーを利用して将来の状態を予測し、(iii)時間を提案する。
論文 参考訳(メタデータ) (2023-05-22T02:26:29Z) - Computation Offloading and Resource Allocation in F-RANs: A Federated
Deep Reinforcement Learning Approach [67.06539298956854]
フォグ無線アクセスネットワーク(フォグ無線アクセスネットワーク、F-RAN)は、ユーザのモバイルデバイス(MD)が計算タスクを近くのフォグアクセスポイント(F-AP)にオフロードできる有望な技術である。
論文 参考訳(メタデータ) (2022-06-13T02:19:20Z) - Efficient Resource Allocation with Fairness Constraints in Restless
Multi-Armed Bandits [8.140037969280716]
Restless Multi-Armed Bandits (RMAB)は、公衆衛生介入における意思決定問題を表現するための適応モデルである。
本稿では,RMAB意思決定が期待値の最大化を図りつつ,異なるアームに対して公平であることを保証することに関心がある。
論文 参考訳(メタデータ) (2022-06-08T13:28:29Z) - Field Study in Deploying Restless Multi-Armed Bandits: Assisting
Non-Profits in Improving Maternal and Child Health [28.43878945119807]
携帯電話は、非営利団体が彼らの受益者に重要な健康情報をタイムリーに届けることを可能にする。
このような情報提供プログラムにおける重要な課題は、かなりの数の受益者がプログラムから離脱することである。
そこで我々は,NPOが受益者とのライブ対話を実現するためのレストレスマルチアーメッド・バンディットシステムを開発した。
論文 参考訳(メタデータ) (2021-09-16T16:04:48Z) - Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach [52.109536198330126]
インフルエンス(IM)問題は、インフルエンスの普及を最大化する、ソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
本研究では、招待されたノードがシードであるかどうかが不確実なIM問題(contingency-aware IM)に焦点をあてる。
最初の成功にもかかわらず、より多くのコミュニティへのソリューションの推進における大きな実践上の障害は、欲張りのアルゴリズムの巨大な実行時である。
論文 参考訳(メタデータ) (2021-06-13T16:42:22Z) - Addressing the Long-term Impact of ML Decisions via Policy Regret [49.92903850297013]
意思決定者が腕を引っ張るたびに、各腕からの報酬が進化する状況について検討する。
我々は、許容可能な機会の逐次配分は、成長の可能性を考慮に入れなければならないと論じている。
十分に長い時間的地平線に対して、確実にサブ線形ポリシーを後悔するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-02T17:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。