論文の概要: On Modeling Human Perceptions of Allocation Policies with Uncertain
Outcomes
- arxiv url: http://arxiv.org/abs/2103.05827v1
- Date: Wed, 10 Mar 2021 02:22:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-08 13:50:53.105733
- Title: On Modeling Human Perceptions of Allocation Policies with Uncertain
Outcomes
- Title(参考訳): 不確かさを伴う割当方針の人間知覚のモデル化について
- Authors: Hoda Heidari, Solon Barocas, Jon Kleinberg, and Karen Levy
- Abstract要約: 確率重み付けは、害と利益の確率分布よりも好みを予測できることを示す。
確率重み付けの歪み効果を考慮して、知覚された総害を最小化し、知覚された総益を最大化する最適政策を同定する。
- 参考スコア(独自算出の注目度): 6.729250803621849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many policies allocate harms or benefits that are uncertain in nature: they
produce distributions over the population in which individuals have different
probabilities of incurring harm or benefit. Comparing different policies thus
involves a comparison of their corresponding probability distributions, and we
observe that in many instances the policies selected in practice are hard to
explain by preferences based only on the expected value of the total harm or
benefit they produce. In cases where the expected value analysis is not a
sufficient explanatory framework, what would be a reasonable model for societal
preferences over these distributions? Here we investigate explanations based on
the framework of probability weighting from the behavioral sciences, which over
several decades has identified systematic biases in how people perceive
probabilities. We show that probability weighting can be used to make
predictions about preferences over probabilistic distributions of harm and
benefit that function quite differently from expected-value analysis, and in a
number of cases provide potential explanations for policy preferences that
appear hard to motivate by other means. In particular, we identify optimal
policies for minimizing perceived total harm and maximizing perceived total
benefit that take the distorting effects of probability weighting into account,
and we discuss a number of real-world policies that resemble such allocational
strategies. Our analysis does not provide specific recommendations for policy
choices, but is instead fundamentally interpretive in nature, seeking to
describe observed phenomena in policy choices.
- Abstract(参考訳): 多くの政策は、自然に不確実である利益や利益を割り当てている:それらは、個人が損害や利益を負う確率が異なる人口の分布を生み出す。
このように、異なるポリシーの比較には、対応する確率分布の比較が含まれており、多くの場合、選択されたポリシーは、それらが生み出す総害や利益の期待値のみに基づいて、好みによって説明することが難しい。
期待値分析が十分な説明の枠組みでない場合、これらの分布に対する社会的嗜好の合理的なモデルは何でしょうか。
本稿では,行動科学の確率重み付けの枠組みに基づき,数十年にわたって人々が確率をどう知覚するかという体系的偏見を特定してきた。
確率重み付けは,リスクの確率分布よりも選好の予測や,期待値分析とは全く異なる機能を持つ利益に利用できることを示すとともに,多くのケースにおいて,他の手段で動機付けが難しい政策選好の潜在的な説明を提供する。
特に, 確率重み付けの歪曲効果を考慮し, 知覚的全損を最小化し, 知覚的全利益を最大化するための最適方針を特定し, その割当戦略に類似した実世界政策を数多く検討した。
我々の分析では、政策選択に関する具体的な勧告は提供していないが、本質的には自然に解釈され、政策選択における観察された現象を記述しようとしている。
関連論文リスト
- Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Policy Learning with Distributional Welfare [1.0742675209112622]
治療選択に関する文献の多くは、条件平均治療効果(ATE)に基づく実用的福祉を考慮したものである。
本稿では,個別処理効果(QoTE)の条件量子化に基づく処理を最適に割り当てる政策を提案する。
論文 参考訳(メタデータ) (2023-11-27T14:51:30Z) - Statistical Inference Under Constrained Selection Bias [20.862583584531322]
本稿では,選択バイアスが存在する場合の統計的推測を可能にする枠組みを提案する。
出力は、目標分布に対する推定値に対する高確率境界である。
我々はこれらの境界を推定するための手法の計算的および統計的特性を分析し、これらの手法が様々なシミュレートされた半合成的なタスクに対して情報的境界を生成可能であることを示す。
論文 参考訳(メタデータ) (2023-06-05T23:05:26Z) - Policy Dispersion in Non-Markovian Environment [53.05904889617441]
本稿では,非マルコフ環境下での国家行動ペアの歴史から,多様な政策の学習を試みる。
まず、ポリシー埋め込みを学習するために、トランスフォーマーベースの手法を採用する。
次に,政策埋め込みを積み重ねて分散行列を構築し,多様な政策の集合を誘導する。
論文 参考訳(メタデータ) (2023-02-28T11:58:39Z) - A Risk-Sensitive Approach to Policy Optimization [21.684251937825234]
標準深層強化学習(DRL)は、政策の定式化における収集経験を均等に考慮し、期待される報酬を最大化することを目的としている。
そこで本研究では,フルエピソード報酬の分布の累積分布関数 (CDF) で規定されるリスク感性目標を最適化する,より直接的なアプローチを提案する。
エージェントの動作が不十分なシナリオを強調する中程度の「悲観的」リスクプロファイルの使用が,探索の強化と,障害への継続的な対処に繋がることを示す。
論文 参考訳(メタデータ) (2022-08-19T00:55:05Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Identification of Subgroups With Similar Benefits in Off-Policy Policy
Evaluation [60.71312668265873]
我々は,パーソナライズの必要性と自信ある予測とのバランスをとる方法を開発した。
本手法は不均一な治療効果の正確な予測に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:19:12Z) - Offline Policy Selection under Uncertainty [113.57441913299868]
我々は、オフラインポリシーの選択を、一定の経験データセットを与えられた政策予測のセットよりも学習の選好とみなす。
政策価値に対する信念に対する完全な分布へのアクセスは、より幅広い下流評価指標の下でより柔軟な選択アルゴリズムを可能にする。
BayesDICEが任意の下流ポリシー選択メトリックに関してポリシーのランク付けにどのように使用されるかを示します。
論文 参考訳(メタデータ) (2020-12-12T23:09:21Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z) - Doubly Robust Off-Policy Value and Gradient Estimation for Deterministic
Policies [80.42316902296832]
本研究では,行動継続時の非政治データから決定論的政策の政策値と勾配を推定する。
この設定では、密度比が存在しないため、標準重要度サンプリングとポリシー値と勾配の2倍の頑健な推定が失敗する。
異なるカーネル化アプローチに基づく2つの新しい頑健な推定器を提案する。
論文 参考訳(メタデータ) (2020-06-06T15:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。