論文の概要: Unfair Utilities and First Steps Towards Improving Them
- arxiv url: http://arxiv.org/abs/2306.00636v1
- Date: Thu, 1 Jun 2023 13:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 16:13:28.317443
- Title: Unfair Utilities and First Steps Towards Improving Them
- Title(参考訳): 不公平なユーティリティと最初のステップ
- Authors: Frederik Hytting J{\o}rgensen, Sebastian Weichwald, Jonas Peters
- Abstract要約: 予測者のポリシーや選択を制約するのではなく、どのユーティリティが最適化されているかを考えます。
情報フェアネスの価値を定義し、この基準を満たさないユーティリティを使わないよう提案する。
- 参考スコア(独自算出の注目度): 5.096632052780432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many fairness criteria constrain the policy or choice of predictors. In this
work, we propose a different framework for thinking about fairness: Instead of
constraining the policy or choice of predictors, we consider which utility a
policy is optimizing for. We define value of information fairness and propose
to not use utilities that do not satisfy this criterion. We describe how to
modify a utility to satisfy this fairness criterion and discuss the
consequences this might have on the corresponding optimal policies.
- Abstract(参考訳): 多くの公正基準は、予測者のポリシーや選択を制約する。
本研究では,公正性を考えるための異なる枠組みを提案する。政策や予測者の選択を制約するのではなく,政策が最適化しているユーティリティを考える。
情報フェアネスの価値を定義し、この基準を満たさないユーティリティを使わないよう提案する。
この公正な基準を満たすためにユーティリティをどう修正するかを説明し、これが対応する最適ポリシーに与える影響について議論する。
関連論文リスト
- Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Predictive Performance Comparison of Decision Policies Under Confounding [32.21041697921289]
そこで本稿では, 意思決定ポリシーの予測性能を, 様々な現代的な識別手法で比較する手法を提案する。
我々の手法の鍵は、政策比較において安全に無視できる不確実性領域が存在するという洞察である。
論文 参考訳(メタデータ) (2024-04-01T01:27:07Z) - Conformal Off-Policy Prediction in Contextual Bandits [54.67508891852636]
コンフォーマルなオフ政治予測は、新しい目標ポリシーの下で、結果に対する信頼できる予測間隔を出力することができる。
理論上の有限サンプル保証は、標準的な文脈的バンディットの設定を超える追加の仮定をすることなく提供する。
論文 参考訳(メタデータ) (2022-06-09T10:39:33Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - Safe Policy Learning through Extrapolation: Application to Pre-trial
Risk Assessment [0.0]
我々は,政策の期待された効用を部分的に識別する頑健な最適化手法を開発し,その上で最適な政策を見出す。
このアプローチを、アルゴリズムレコメンデーションの助けを借りて人間が決定する、一般的で重要な設定にまで拡張する。
我々は,既存のリスク評価機器の透明性と解釈可能性を維持する新たな分類・勧告ルールを導出する。
論文 参考訳(メタデータ) (2021-09-22T00:52:03Z) - On the Optimality of Batch Policy Optimization Algorithms [106.89498352537682]
バッチポリシー最適化は、環境と対話する前に既存のデータをポリシー構築に活用することを検討する。
信頼調整インデックスアルゴリズムは楽観的,悲観的,中立的いずれであってもミニマックス最適であることを示す。
最適値予測の本来の難易度を考慮した新しい重み付き最小値基準を提案する。
論文 参考訳(メタデータ) (2021-04-06T05:23:20Z) - Fair Set Selection: Meritocracy and Social Welfare [6.205308371824033]
候補集団から一組の個人を選定する問題を実用的最大化問題として定式化する。
意思決定者の視点からは、期待されるユーティリティを最大化する選択ポリシーを見つけることと等価である。
我々の枠組みは、選択政策に関して個人が期待する限界貢献(EMC)の概念を、長所主義からの逸脱の尺度として導く。
論文 参考訳(メタデータ) (2021-02-23T20:36:36Z) - Offline Policy Selection under Uncertainty [113.57441913299868]
我々は、オフラインポリシーの選択を、一定の経験データセットを与えられた政策予測のセットよりも学習の選好とみなす。
政策価値に対する信念に対する完全な分布へのアクセスは、より幅広い下流評価指標の下でより柔軟な選択アルゴリズムを可能にする。
BayesDICEが任意の下流ポリシー選択メトリックに関してポリシーのランク付けにどのように使用されるかを示します。
論文 参考訳(メタデータ) (2020-12-12T23:09:21Z) - Optimal Policies for the Homogeneous Selective Labels Problem [19.54948759840131]
本稿では,選択ラベルに直面する意思決定方針の学習について述べる。
割引総報酬を最大化するためには、最適政策がしきい値ポリシーであることが示される。
数え切れない無限水平平均報酬に対して、最適政策は全ての状態において肯定的な受容確率を持つ。
論文 参考訳(メタデータ) (2020-11-02T23:32:53Z) - Efficient Policy Learning from Surrogate-Loss Classification Reductions [65.91730154730905]
本稿では,政策学習におけるサロゲート-ロス分類の重み付けによる推定問題について考察する。
適切な仕様の仮定の下では、重み付けされた分類定式化はポリシーパラメーターに対して効率的でないことが示される。
本稿では,ポリシーパラメータに対して効率的なモーメントの一般化手法に基づく推定手法を提案する。
論文 参考訳(メタデータ) (2020-02-12T18:54:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。