論文の概要: Fairness in Ranking under Uncertainty
- arxiv url: http://arxiv.org/abs/2107.06720v1
- Date: Wed, 14 Jul 2021 14:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:06:23.565232
- Title: Fairness in Ranking under Uncertainty
- Title(参考訳): 不確実性下におけるランキングの公平性
- Authors: Ashudeep Singh, David Kempe, Thorsten Joachims
- Abstract要約: 不公平は、より有益なエージェントが、より有益なエージェントよりも悪い結果を得るときに起こる。
私たちの中心的なポイントは、不公平の主な原因は不確実性であるということです。
有効性と有効性とを最適にトレードオフするランキングを、プリンシパルにどのように計算するかを示す。
- 参考スコア(独自算出の注目度): 42.51950847766776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness has emerged as an important consideration in algorithmic
decision-making. Unfairness occurs when an agent with higher merit obtains a
worse outcome than an agent with lower merit. Our central point is that a
primary cause of unfairness is uncertainty. A principal or algorithm making
decisions never has access to the agents' true merit, and instead uses proxy
features that only imperfectly predict merit (e.g., GPA, star ratings,
recommendation letters). None of these ever fully capture an agent's merit; yet
existing approaches have mostly been defining fairness notions directly based
on observed features and outcomes.
Our primary point is that it is more principled to acknowledge and model the
uncertainty explicitly. The role of observed features is to give rise to a
posterior distribution of the agents' merits. We use this viewpoint to define a
notion of approximate fairness in ranking. We call an algorithm $\phi$-fair
(for $\phi \in [0,1]$) if it has the following property for all agents $x$ and
all $k$: if agent $x$ is among the top $k$ agents with respect to merit with
probability at least $\rho$ (according to the posterior merit distribution),
then the algorithm places the agent among the top $k$ agents in its ranking
with probability at least $\phi \rho$.
We show how to compute rankings that optimally trade off approximate fairness
against utility to the principal. In addition to the theoretical
characterization, we present an empirical analysis of the potential impact of
the approach in simulation studies. For real-world validation, we applied the
approach in the context of a paper recommendation system that we built and
fielded at a large conference.
- Abstract(参考訳): 公平性はアルゴリズムによる意思決定において重要な考慮事項となっている。
不公平は、より有益なエージェントが、より有益なエージェントよりも悪い結果を得るときに起こる。
私たちの中心となる点は、不公平の主な原因は不確実性であるということです。
決定を下すプリンシパルまたはアルゴリズムは、エージェントの真の価値にアクセスできず、代わりに、不完全なメリットを予測できるプロキシ機能(例えば、GPA、星の評価、レコメンデーションレター)を使用する。
いずれもエージェントのメリットを完全に把握するものではないが、既存のアプローチでは、観察された特徴と結果に基づいて、フェアネスの概念を直接定義している。
第一のポイントは、不確実性を明示的に認識し、モデル化することがより原則であることです。
観察された特徴の役割は、エージェントのメリットの後方分布を引き起こすことである。
この視点を用いてランキングにおける近似公平性の概念を定義する。
アルゴリズムを$\phi$-fair (for $\phi \in [0,1]$) と呼ぶ: エージェント$x$ と all $k$ に対して以下の性質を持つ: エージェント$x$ が確率が少なくとも$\rho$ (後述のメリット分布による) のメリットに関する上位$k$ エージェントであるなら、アルゴリズムはそのエージェントを少なくとも$\phi \rho$ のランクの上位$k$ エージェントに配置する。
そこで本研究では,実用性に対して最適に公平さをトレードオフするランキングの計算法を示す。
理論的な特徴付けに加えて,シミュレーション研究におけるアプローチの潜在的影響を実証的に分析する。
実世界の検証のために、我々は大規模な会議で構築し、焦点を当てた論文レコメンデーションシステムという文脈でアプローチを適用しました。
関連論文リスト
- On the Hardness of Decentralized Multi-Agent Policy Evaluation under Byzantine Attacks [12.696705862929337]
完全分散型マルチエージェント政策評価問題について,最大$f$の障害エージェントの存在下で検討する。
特に、モデル中毒設定を伴ういわゆるビザンツの欠陥モデルに焦点を当てる。
論文 参考訳(メタデータ) (2024-09-19T16:27:08Z) - Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Are Bounded Contracts Learnable and Approximately Optimal? [8.121834515103243]
本稿では,主エージェントが契約を用いてプロジェクトに取り組む動機付けを行う,主エージェント問題の隠れアクションモデルについて考察する。
本研究では,有界決済契約が学習可能か,ほぼ最適かを検討する。
論文 参考訳(メタデータ) (2024-02-22T12:19:19Z) - Robust and Performance Incentivizing Algorithms for Multi-Armed Bandits
with Strategic Agents [57.627352949446625]
マルチアームバンディット問題の変種を考察する。
具体的には、武器は、報酬を改善したり、吸収したりできる戦略的なエージェントである。
我々は、プロパティの集合を満たすMABアルゴリズムのクラスを特定し、それらが平衡におけるトップレベルのパフォーマンスを刺激するメカニズムをもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-13T06:54:49Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness in Ranking under Disparate Uncertainty [24.401219403555814]
我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
異なる不確実性が存在する場合でも、EORは関連する選択肢の中でグループワイドフェア・宝くじに対応していることを示す。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Fairness in Federated Learning via Core-Stability [16.340526776021143]
フェデレートラーニングは、リッチな分散データから恩恵を受けるモデルを共同で最適化する効果的なパラダイムを提供する。
高品質なデータを持つエージェントが、低品質なデータを持つ他のエージェントによってパフォーマンスを犠牲にするのは、直感的に“不公平”である。
コア安定予測器を最適化する効率的なフェデレート学習プロトコルCoreFedを提案する。
論文 参考訳(メタデータ) (2022-11-03T18:41:11Z) - Provably Efficient Offline Reinforcement Learning with Trajectory-Wise
Reward [66.81579829897392]
我々はPessimistic vAlue iteRaTionとrEward Decomposition (PARTED)という新しいオフライン強化学習アルゴリズムを提案する。
PartEDは、最小2乗ベースの報酬再分配を通じて、ステップごとのプロキシ報酬に軌道を分解し、学習したプロキシ報酬に基づいて悲観的な値を実行する。
私たちの知る限りでは、PartEDは、トラジェクティブな報酬を持つ一般のMDPにおいて、証明可能な効率のよい最初のオフラインRLアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-13T19:11:22Z) - Group Meritocratic Fairness in Linear Contextual Bandits [32.15680917495674]
エージェントがプールから1つの候補を選択し、各候補がセンシティブなグループに属するという線形文脈帯域問題について検討する。
エージェントのポリシーは、最も高い相対ランクの候補を選択する際に公平であることを示す公平性の概念を提案する。
論文 参考訳(メタデータ) (2022-06-07T09:54:38Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。