論文の概要: (Machine) Learning What Policies Value
- arxiv url: http://arxiv.org/abs/2206.00727v1
- Date: Wed, 1 Jun 2022 19:33:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 05:16:01.300612
- Title: (Machine) Learning What Policies Value
- Title(参考訳): (機械)政策の価値を学習する
- Authors: Daniel Bj\"orkegren, Joshua E. Blumenstock, Samsun Knight
- Abstract要約: 本稿では,観測された割当決定と一致した値を明らかにする手法を開発した。
機械学習の手法を使って、各個人が介入によってどれだけの恩恵を受けるかを推定します。
メキシコのPROGRESAアンチ・ポルノ・プログラムを分析して、このアプローチを実証する。
- 参考スコア(独自算出の注目度): 2.0267847227859144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When a policy prioritizes one person over another, is it because they benefit
more, or because they are preferred? This paper develops a method to uncover
the values consistent with observed allocation decisions. We use machine
learning methods to estimate how much each individual benefits from an
intervention, and then reconcile its allocation with (i) the welfare weights
assigned to different people; (ii) heterogeneous treatment effects of the
intervention; and (iii) weights on different outcomes. We demonstrate this
approach by analyzing Mexico's PROGRESA anti-poverty program. The analysis
reveals that while the program prioritized certain subgroups -- such as
indigenous households -- the fact that those groups benefited more implies that
they were in fact assigned a lower welfare weight. The PROGRESA case
illustrates how the method makes it possible to audit existing policies, and to
design future policies that better align with values.
- Abstract(参考訳): 方針が人を優先する場合、より多くの利益があるためか、あるいは優先されているためか?
本稿では,観測された割当決定と一致する値を明らかにする手法を開発した。
機械学習を使って、各個人が介入から得られる利益を見積もり、その割り当てを調整します。
(i)異なる人に割り当てられた厚生重量
二 介入による不均一な治療効果、及び
(iii)異なる結果の重み付け。
我々は、メキシコのprogresa anti-povertyプログラムを分析して、このアプローチを実証する。
分析の結果、同プログラムは特定のサブグループ(例えば、先住民の世帯)を優先していたが、これらのグループがより利益を得たという事実は、実際により低い福祉体重を割り当てられたことを示している。
progresaのケースは、このメソッドが既存のポリシーを監査し、価値に合致する将来のポリシーを設計する方法を説明している。
関連論文リスト
- Policy Learning with Distributional Welfare [1.2691047660244337]
治療選択に関する文献の多くは、条件平均治療効果(ATE)に基づく実用的福祉を考慮したものである。
本稿では,個別処理効果(QoTE)の条件量子化に基づく処理を最適に割り当てる政策を提案する。
論文 参考訳(メタデータ) (2023-11-27T14:51:30Z) - Off-Policy Evaluation for Large Action Spaces via Policy Convolution [60.6953713877886]
ポリシ・コンボリューション(Policy Convolution)のファミリーは、アクション内の潜在構造を使用して、ログとターゲットポリシを戦略的に畳み込みます。
合成およびベンチマークデータセットの実験では、PCを使用する場合の平均二乗誤差(MSE)が顕著に改善されている。
論文 参考訳(メタデータ) (2023-10-24T01:00:01Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Conformal Off-Policy Evaluation in Markov Decision Processes [53.786439742572995]
強化学習は、データから効率的な制御ポリシーを特定し評価することを目的としている。
この学習タスクのほとんどの方法は、Off-Policy Evaluation (OPE)と呼ばれ、正確さと確実性を保証するものではない。
本稿では,目標方針の真報を含む区間を所定の確信度で出力するコンフォーマル予測に基づく新しいOPE手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T16:45:11Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Identification of Subgroups With Similar Benefits in Off-Policy Policy
Evaluation [60.71312668265873]
我々は,パーソナライズの必要性と自信ある予測とのバランスをとる方法を開発した。
本手法は不均一な治療効果の正確な予測に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:19:12Z) - Optimal Mixture Weights for Off-Policy Evaluation with Multiple Behavior
Policies [3.855085732184416]
オフ政治評価は、行動ポリシーから収集されたオフラインデータを用いて目標ポリシーを評価する強化学習の鍵となる要素である。
本稿では,異なる行動ポリシーによって生成された推定器を正しく混合する方法について論じる。
シミュレーションリコメンデータシステムの実験から,提案手法は推定平均二乗誤差を低減するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-11-29T12:57:54Z) - Fair Policy Targeting [0.6091702876917281]
社会福祉プログラムにおける個人に対する介入を標的とする主な関心事の1つは差別である。
本稿では,公平かつ効率的な処理割り当てルールの設計に関する課題に対処する。
論文 参考訳(メタデータ) (2020-05-25T20:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。