論文の概要: On Modeling Human Perceptions of Allocation Policies with Uncertain
Outcomes
- arxiv url: http://arxiv.org/abs/2103.05827v1
- Date: Wed, 10 Mar 2021 02:22:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-08 13:50:53.105733
- Title: On Modeling Human Perceptions of Allocation Policies with Uncertain
Outcomes
- Title(参考訳): 不確かさを伴う割当方針の人間知覚のモデル化について
- Authors: Hoda Heidari, Solon Barocas, Jon Kleinberg, and Karen Levy
- Abstract要約: 確率重み付けは、害と利益の確率分布よりも好みを予測できることを示す。
確率重み付けの歪み効果を考慮して、知覚された総害を最小化し、知覚された総益を最大化する最適政策を同定する。
- 参考スコア(独自算出の注目度): 6.729250803621849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many policies allocate harms or benefits that are uncertain in nature: they
produce distributions over the population in which individuals have different
probabilities of incurring harm or benefit. Comparing different policies thus
involves a comparison of their corresponding probability distributions, and we
observe that in many instances the policies selected in practice are hard to
explain by preferences based only on the expected value of the total harm or
benefit they produce. In cases where the expected value analysis is not a
sufficient explanatory framework, what would be a reasonable model for societal
preferences over these distributions? Here we investigate explanations based on
the framework of probability weighting from the behavioral sciences, which over
several decades has identified systematic biases in how people perceive
probabilities. We show that probability weighting can be used to make
predictions about preferences over probabilistic distributions of harm and
benefit that function quite differently from expected-value analysis, and in a
number of cases provide potential explanations for policy preferences that
appear hard to motivate by other means. In particular, we identify optimal
policies for minimizing perceived total harm and maximizing perceived total
benefit that take the distorting effects of probability weighting into account,
and we discuss a number of real-world policies that resemble such allocational
strategies. Our analysis does not provide specific recommendations for policy
choices, but is instead fundamentally interpretive in nature, seeking to
describe observed phenomena in policy choices.
- Abstract(参考訳): 多くの政策は、自然に不確実である利益や利益を割り当てている:それらは、個人が損害や利益を負う確率が異なる人口の分布を生み出す。
このように、異なるポリシーの比較には、対応する確率分布の比較が含まれており、多くの場合、選択されたポリシーは、それらが生み出す総害や利益の期待値のみに基づいて、好みによって説明することが難しい。
期待値分析が十分な説明の枠組みでない場合、これらの分布に対する社会的嗜好の合理的なモデルは何でしょうか。
本稿では,行動科学の確率重み付けの枠組みに基づき,数十年にわたって人々が確率をどう知覚するかという体系的偏見を特定してきた。
確率重み付けは,リスクの確率分布よりも選好の予測や,期待値分析とは全く異なる機能を持つ利益に利用できることを示すとともに,多くのケースにおいて,他の手段で動機付けが難しい政策選好の潜在的な説明を提供する。
特に, 確率重み付けの歪曲効果を考慮し, 知覚的全損を最小化し, 知覚的全利益を最大化するための最適方針を特定し, その割当戦略に類似した実世界政策を数多く検討した。
我々の分析では、政策選択に関する具体的な勧告は提供していないが、本質的には自然に解釈され、政策選択における観察された現象を記述しようとしている。
関連論文リスト
- Policy Learning with Distributional Welfare [1.2691047660244337]
治療選択に関する文献の多くは、条件平均治療効果(ATE)に基づく実用的福祉を考慮したものである。
本稿では,個別処理効果(QoTE)の条件量子化に基づく処理を最適に割り当てる政策を提案する。
論文 参考訳(メタデータ) (2023-11-27T14:51:30Z) - Statistical Inference Under Constrained Selection Bias [20.862583584531322]
本稿では,選択バイアスが存在する場合の統計的推測を可能にする枠組みを提案する。
出力は、目標分布に対する推定値に対する高確率境界である。
我々はこれらの境界を推定するための手法の計算的および統計的特性を分析し、これらの手法が様々なシミュレートされた半合成的なタスクに対して情報的境界を生成可能であることを示す。
論文 参考訳(メタデータ) (2023-06-05T23:05:26Z) - A Risk-Sensitive Approach to Policy Optimization [21.684251937825234]
標準深層強化学習(DRL)は、政策の定式化における収集経験を均等に考慮し、期待される報酬を最大化することを目的としている。
そこで本研究では,フルエピソード報酬の分布の累積分布関数 (CDF) で規定されるリスク感性目標を最適化する,より直接的なアプローチを提案する。
エージェントの動作が不十分なシナリオを強調する中程度の「悲観的」リスクプロファイルの使用が,探索の強化と,障害への継続的な対処に繋がることを示す。
論文 参考訳(メタデータ) (2022-08-19T00:55:05Z) - Conformal Off-Policy Prediction in Contextual Bandits [54.67508891852636]
コンフォーマルなオフ政治予測は、新しい目標ポリシーの下で、結果に対する信頼できる予測間隔を出力することができる。
理論上の有限サンプル保証は、標準的な文脈的バンディットの設定を超える追加の仮定をすることなく提供する。
論文 参考訳(メタデータ) (2022-06-09T10:39:33Z) - Identification of Subgroups With Similar Benefits in Off-Policy Policy
Evaluation [60.71312668265873]
我々は,パーソナライズの必要性と自信ある予測とのバランスをとる方法を開発した。
本手法は不均一な治療効果の正確な予測に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:19:12Z) - Case-based off-policy policy evaluation using prototype learning [8.550140109387467]
プロトタイプ学習を用いた非政治政策評価のための行動ポリシーの推定について提案する。
本稿では,プロトタイプが目標と行動方針の相違点を要約する方法について述べる。
また、ターゲットポリシーのどの部分が見積もりに最も影響しているかをよりよく理解するために、プロトタイプの観点から推定値についても記述する。
論文 参考訳(メタデータ) (2021-11-22T11:03:45Z) - Minimax Off-Policy Evaluation for Multi-Armed Bandits [58.7013651350436]
有界報酬を用いたマルチアームバンディットモデルにおけるオフポリシー評価の問題点について検討する。
3つの設定でミニマックスレート・オプティマティックな手順を開発。
論文 参考訳(メタデータ) (2021-01-19T18:55:29Z) - Offline Policy Selection under Uncertainty [113.57441913299868]
我々は、オフラインポリシーの選択を、一定の経験データセットを与えられた政策予測のセットよりも学習の選好とみなす。
政策価値に対する信念に対する完全な分布へのアクセスは、より幅広い下流評価指標の下でより柔軟な選択アルゴリズムを可能にする。
BayesDICEが任意の下流ポリシー選択メトリックに関してポリシーのランク付けにどのように使用されるかを示します。
論文 参考訳(メタデータ) (2020-12-12T23:09:21Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z) - Doubly Robust Off-Policy Value and Gradient Estimation for Deterministic
Policies [80.42316902296832]
本研究では,行動継続時の非政治データから決定論的政策の政策値と勾配を推定する。
この設定では、密度比が存在しないため、標準重要度サンプリングとポリシー値と勾配の2倍の頑健な推定が失敗する。
異なるカーネル化アプローチに基づく2つの新しい頑健な推定器を提案する。
論文 参考訳(メタデータ) (2020-06-06T15:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。