論文の概要: Quadratic Metric Elicitation for Fairness and Beyond
- arxiv url: http://arxiv.org/abs/2011.01516v3
- Date: Sun, 21 Aug 2022 07:12:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:09:15.094464
- Title: Quadratic Metric Elicitation for Fairness and Beyond
- Title(参考訳): 公平と超越性のための二次距離導出
- Authors: Gaurush Hiranandani, Jatin Mathur, Harikrishna Narasimhan, Oluwasanmi
Koyejo
- Abstract要約: 本稿では,速度の2次関数によって定義される,よりフレキシブルなマルチクラスメトリクスを抽出するための戦略を開発する。
本稿では,2次違反に基づくグループフェアメトリクスの抽出への応用について述べる。
- 参考スコア(独自算出の注目度): 28.1407078984806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metric elicitation is a recent framework for eliciting classification
performance metrics that best reflect implicit user preferences based on the
task and context. However, available elicitation strategies have been limited
to linear (or quasi-linear) functions of predictive rates, which can be
practically restrictive for many applications including fairness. This paper
develops a strategy for eliciting more flexible multiclass metrics defined by
quadratic functions of rates, designed to reflect human preferences better. We
show its application in eliciting quadratic violation-based group-fair metrics.
Our strategy requires only relative preference feedback, is robust to noise,
and achieves near-optimal query complexity. We further extend this strategy to
eliciting polynomial metrics -- thus broadening the use cases for metric
elicitation.
- Abstract(参考訳): metric elicitationは、タスクとコンテキストに基づいて暗黙的なユーザの好みを最も反映する、分類パフォーマンスメトリクスを引き出すための最近のフレームワークである。
しかし、利用可能なエリケーション戦略は予測率の線形(あるいは準線形)関数に限られており、公平性を含む多くのアプリケーションで事実上制限される。
本稿では,人間の嗜好をよりよく反映した2次関数によって定義される,より柔軟なマルチクラスメトリクスの抽出戦略を開発する。
我々は,二次的違反に基づくグループ・フェア・メトリックスを省略して,その適用例を示す。
我々の戦略は相対的な選好フィードバックのみを必要とし、ノイズに頑健であり、最適に近いクエリの複雑さを達成する。
さらに、この戦略を多項式メトリクスの抽出にまで拡張し、メートル法推論のユースケースを広げる。
関連論文リスト
- An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Stop Relying on No-Choice and Do not Repeat the Moves: Optimal,
Efficient and Practical Algorithms for Assortment Optimization [38.57171985309975]
本研究では,emphPlackett Luce (PL) を用いたコンソーシアム選択問題に対する効率的なアルゴリズムを開発した。
提案手法は,既存の手法の限界を無視し,実用的かつ確実に最適である。
論文 参考訳(メタデータ) (2024-02-29T07:17:04Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Classification Performance Metric Elicitation and its Applications [5.5637552942511155]
その実践的関心にもかかわらず、機械学習アプリケーションのためのメトリクスの選択方法に関する正式なガイダンスは限られている。
この論文は、暗黙のユーザの嗜好を最も反映したパフォーマンスメトリックを選択するための原則的なフレームワークとして、メトリクスの誘惑を概説している。
論文 参考訳(メタデータ) (2022-08-19T03:57:17Z) - gTLO: A Generalized and Non-linear Multi-Objective Deep Reinforcement
Learning Approach [2.0305676256390934]
Generalized Thresholded Lexicographic Ordering (gTLO)は、非線形MORLと一般化MORLの利点を組み合わせた新しい手法である。
我々は、非線形MORLの標準ベンチマークと製造プロセス制御の領域からの実世界の応用について有望な結果を示す。
論文 参考訳(メタデータ) (2022-04-11T10:06:49Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - Towards Deployment-Efficient Reinforcement Learning: Lower Bound and
Optimality [141.89413461337324]
展開効率は、強化学習(RL)の多くの実世界の応用にとって重要な基準である
本稿では,「制約付き最適化」の観点から,デプロイ効率の高いRL(DE-RL)の理論的定式化を提案する。
論文 参考訳(メタデータ) (2022-02-14T01:31:46Z) - Fair Performance Metric Elicitation [29.785862520452955]
我々は、計量赤道レンズによる公正度指標の選択について考察する。
マルチクラス分類問題に対して,グループフェアのパフォーマンス指標を抽出する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T04:03:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。