論文の概要: Learning treatment effects while treating those in need
- arxiv url: http://arxiv.org/abs/2407.07596v1
- Date: Wed, 10 Jul 2024 12:29:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 16:41:55.765785
- Title: Learning treatment effects while treating those in need
- Title(参考訳): 必要な人に対する治療効果の学習
- Authors: Bryan Wilder, Pim Welle,
- Abstract要約: 本研究では,学習治療効果のある高年齢者を対象に,最適にバランスをとるランダム化アロケーションルールを設計する枠組みを提案する。
ペンシルベニア州アレゲニー郡の人間サービスからのデータに我々のフレームワークを適用します。
- 参考スコア(独自算出の注目度): 20.99198458867724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many social programs attempt to allocate scarce resources to people with the greatest need. Indeed, public services increasingly use algorithmic risk assessments motivated by this goal. However, targeting the highest-need recipients often conflicts with attempting to evaluate the causal effect of the program as a whole, as the best evaluations would be obtained by randomizing the allocation. We propose a framework to design randomized allocation rules which optimally balance targeting high-need individuals with learning treatment effects, presenting policymakers with a Pareto frontier between the two goals. We give sample complexity guarantees for the policy learning problem and provide a computationally efficient strategy to implement it. We then apply our framework to data from human services in Allegheny County, Pennsylvania. Optimized policies can substantially mitigate the tradeoff between learning and targeting. For example, it is often possible to obtain 90% of the optimal utility in targeting high-need individuals while ensuring that the average treatment effect can be estimated with less than 2 times the samples that a randomized controlled trial would require. Mechanisms for targeting public services often focus on measuring need as accurately as possible. However, our results suggest that algorithmic systems in public services can be most impactful if they incorporate program evaluation as an explicit goal alongside targeting.
- Abstract(参考訳): 多くの社会プログラムは、最も必要な人に不足する資源を割り当てようと試みている。
実際、公共サービスは、この目標に動機づけられたアルゴリズム的リスクアセスメントをますます利用しています。
しかし、最高の評価はアロケーションをランダムにすることで得られるので、最も必要な受信者をターゲットにしてプログラムの因果効果を全体として評価しようとすると、しばしば矛盾する。
本研究では,2つの目標の間にパレートフロンティアを持つ政策立案者を提示し,学習治療効果を有する高利き個人を対象に最適なバランスをとるランダム化アロケーションルールを設計する枠組みを提案する。
我々は,政策学習問題に対する複雑性保証のサンプルを与え,それを実装するための計算効率の良い戦略を提供する。
次に、ペンシルベニア州アレゲーニー郡の人間サービスからのデータに私たちのフレームワークを適用します。
最適化されたポリシーは、学習とターゲティングのトレードオフを大幅に軽減します。
例えば、無作為化対照試験が必要とする2倍未満のサンプルで平均治療効果を推定できることを保証しながら、高利害者をターゲットにする上で最適なユーティリティの90%を得ることが可能である。
公共サービスをターゲットにするためのメカニズムは、必要に応じて正確に測定することに集中することが多い。
しかし,本研究の結果から,プログラム評価をターゲットと並行して明示的な目標とすることで,公共サービスにおけるアルゴリズムシステムに最も影響を与える可能性が示唆された。
関連論文リスト
- Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Machine Learning Who to Nudge: Causal vs Predictive Targeting in a Field Experiment on Student Financial Aid Renewal [5.044100238869374]
53,000人以上の大学生を対象に,大規模フィールド実験におけるターゲットの価値を分析した。
低ベースライン結果に基づくターゲティングが最も有効であることを示す。
論文 参考訳(メタデータ) (2023-10-12T19:08:45Z) - Optimal and Fair Encouragement Policy Evaluation and Learning [11.712023983596914]
本研究は, 陽性の潜在的な違反を含む最適治療規則の因果同定とロバストな評価について検討した。
一般制約下でのパラメタライズされたポリシークラスを解くための2段階のアルゴリズムを開発し、分散感応的後悔境界を求める。
本研究は, SNAP給付のリマインダーデータ, 保険申請の無作為化促進, および電子監視による事前管理リリースに基づく3つのケーススタディである。
論文 参考訳(メタデータ) (2023-09-12T20:45:30Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Quasi-optimal Reinforcement Learning with Continuous Actions [8.17049210746654]
そこで我々は,非政治環境において容易に最適化できる,新しいEmphquasi-Optimal Learningアルゴリズムを開発した。
本アルゴリズムを網羅的なシミュレーション実験により評価し,オハイオ1型糖尿病データセットへの線量提案実例を適用した。
論文 参考訳(メタデータ) (2023-01-21T11:30:13Z) - Provably Efficient Algorithms for Multi-Objective Competitive RL [54.22598924633369]
エージェントの報酬がベクトルとして表現される多目的強化学習(RL)について検討する。
エージェントが相手と競合する設定では、その平均戻りベクトルから目標セットまでの距離によってその性能を測定する。
統計的および計算学的に効率的なアルゴリズムを開発し、関連するターゲットセットにアプローチする。
論文 参考訳(メタデータ) (2021-02-05T14:26:00Z) - Inherent Trade-offs in the Fair Allocation of Treatments [2.6143568807090696]
明示的で暗黙的な偏見は人間の判断を曇らせ、少数民族の差別的扱いに繋がる。
フェアネス制約を考慮したデータから最適な介入ポリシーを学習する因果的枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-30T17:55:00Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。