論文の概要: Evaluating the Effectiveness of Index-Based Treatment Allocation
- arxiv url: http://arxiv.org/abs/2402.11771v1
- Date: Mon, 19 Feb 2024 01:55:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 18:54:24.201086
- Title: Evaluating the Effectiveness of Index-Based Treatment Allocation
- Title(参考訳): 指標に基づく治療割当の有効性の評価
- Authors: Niclas Boehmer, Yash Nair, Sanket Shah, Lucas Janson, Aparna Taneja,
Milind Tambe
- Abstract要約: リソースが不足している場合には、リソースを誰が受け取るかを決定するためにアロケーションポリシーが必要である。
本稿では、ランダム化制御試験のデータを用いて、インデックスベースのアロケーションポリシーを評価する手法を提案する。
- 参考スコア(独自算出の注目度): 42.040099398176665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When resources are scarce, an allocation policy is needed to decide who
receives a resource. This problem occurs, for instance, when allocating scarce
medical resources and is often solved using modern ML methods. This paper
introduces methods to evaluate index-based allocation policies -- that allocate
a fixed number of resources to those who need them the most -- by using data
from a randomized control trial. Such policies create dependencies between
agents, which render the assumptions behind standard statistical tests invalid
and limit the effectiveness of estimators. Addressing these challenges, we
translate and extend recent ideas from the statistics literature to present an
efficient estimator and methods for computing asymptotically correct confidence
intervals. This enables us to effectively draw valid statistical conclusions, a
critical gap in previous work. Our extensive experiments validate our
methodology in practical settings, while also showcasing its statistical power.
We conclude by proposing and empirically verifying extensions of our
methodology that enable us to reevaluate a past randomized control trial to
evaluate different ML allocation policies in the context of a mHealth program,
drawing previously invisible conclusions.
- Abstract(参考訳): リソースが不足する場合、誰がリソースを受け取るかを決めるために割り当てポリシーが必要となる。
この問題は、例えば、少ない医療資源を割り当てるときに起こり、近代的なML手法でしばしば解決される。
本稿では, ランダム化制御試験のデータを用いて, 最適な資源を最も必要とする人に割り当てる, インデックスベースのアロケーションポリシーを評価する手法を提案する。
このようなポリシーはエージェント間の依存関係を生成し、標準統計テストの背後にある仮定を無効にし、推定器の有効性を制限する。
これらの課題に対処し,最近の研究成果を統計文献から翻訳・拡張し,漸近的に正しい信頼区間を計算するための効率的な推定器と手法を提案する。
これにより,実効的な統計的結論,すなわち先行研究における重要なギャップを効果的に引き出すことができる。
本研究は,我々の方法論を実践的に検証すると共に,その統計的能力を示すものである。
我々は、過去のランダム化制御試験を再評価し、mHealthプログラムの文脈で異なるMLアロケーションポリシーを評価するための方法論の拡張を提案し、実証的に検証し、これまで目に見えない結論を導き出す。
関連論文リスト
- Source-Free Domain-Invariant Performance Prediction [68.39031800809553]
本研究では,不確実性に基づく推定を主軸としたソースフリー手法を提案する。
オブジェクト認識データセットのベンチマーク実験により、既存のソースベースの手法は、限られたソースサンプルの可用性で不足していることが判明した。
提案手法は,現在の最先端のソースフリーおよびソースベース手法よりも優れており,ドメイン不変性能推定の有効性が確認されている。
論文 参考訳(メタデータ) (2024-08-05T03:18:58Z) - Targeted Machine Learning for Average Causal Effect Estimation Using the
Front-Door Functional [3.0232957374216953]
結果に対する治療の平均因果効果(ACE)を評価することは、しばしば観察研究における要因の相違によって引き起こされる課題を克服することを伴う。
本稿では,目標最小損失推定理論に基づいて,正面基準の新たな推定手法を提案する。
本研究では,早期学業成績が今後の年収に与える影響を明らかにするために,これらの推定装置の適用性を示す。
論文 参考訳(メタデータ) (2023-12-15T22:04:53Z) - Uncertainty-Aware Instance Reweighting for Off-Policy Learning [63.31923483172859]
本研究では,不確実性を考慮した逆確率スコア推定器 (UIPS) を提案する。
実世界の3つのレコメンデーションデータセットを用いた実験結果から,提案したUIPS推定器の有効サンプル効率が示された。
論文 参考訳(メタデータ) (2023-03-11T11:42:26Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Variance-Optimal Augmentation Logging for Counterfactual Evaluation in
Contextual Bandits [25.153656462604268]
オフラインのA/Bテストと反ファクトラーニングの手法は、検索システムやレコメンデーションシステムに急速に採用されている。
これらの手法で一般的に使用される対物推定器は、ログポリシが評価対象のポリシーと大きく異なる場合、大きなバイアスと大きなばらつきを持つ可能性がある。
本稿では,下流評価や学習問題の分散を最小限に抑えるロギングポリシーを構築するための,MVAL(Minimum Variance Augmentation Logging)を提案する。
論文 参考訳(メタデータ) (2022-02-03T17:37:11Z) - Statistical Bootstrapping for Uncertainty Estimation in Off-Policy
Evaluation [38.31971190670345]
本研究は,政策の真の価値を校正した信頼区間を生成する手段として,統計的ブートストラップの可能性について検討する。
本研究では, 連続制御環境や小規模なデータ体制など, 様々な条件下で精度の高い信頼区間が得られることを示す。
論文 参考訳(メタデータ) (2020-07-27T14:49:22Z) - Distributionally Robust Batch Contextual Bandits [20.667213458836734]
歴史的観測データを用いた政策学習は、広く応用されている重要な問題である。
既存の文献は、学習方針が展開される将来の環境が過去の環境と同じである、という決定的な前提に基づいている。
本稿では、この仮定を引き上げ、不完全な観測データを用いて、分布的に堅牢なポリシーを学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-10T03:11:40Z) - Minimax-Optimal Off-Policy Evaluation with Linear Function Approximation [49.502277468627035]
本稿では,関数近似を用いたバッチデータ強化学習の統計的理論について検討する。
記録履歴から新たな対象政策の累積値を推定するオフ・ポリティクス評価問題を考察する。
論文 参考訳(メタデータ) (2020-02-21T19:20:57Z) - Efficient Policy Learning from Surrogate-Loss Classification Reductions [65.91730154730905]
本稿では,政策学習におけるサロゲート-ロス分類の重み付けによる推定問題について考察する。
適切な仕様の仮定の下では、重み付けされた分類定式化はポリシーパラメーターに対して効率的でないことが示される。
本稿では,ポリシーパラメータに対して効率的なモーメントの一般化手法に基づく推定手法を提案する。
論文 参考訳(メタデータ) (2020-02-12T18:54:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。