論文の概要: Differential Parity: Relative Fairness Between Two Sets of Decisions
- arxiv url: http://arxiv.org/abs/2112.11279v3
- Date: Fri, 07 Feb 2025 23:00:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:24:56.694052
- Title: Differential Parity: Relative Fairness Between Two Sets of Decisions
- Title(参考訳): 差分パリティ:2つの決定の集合間の相対的公正性
- Authors: Zhe Yu, Xiaoyin Xi,
- Abstract要約: 差分パリティを持つ別の決定に対して設定された決定の相対的公正性をテストすることを提案する。
これは、絶対の公正な決定の曖昧で矛盾した定義を避ける。
これは2つの決定セット間の相対的な嗜好と偏見を明らかにする。
- 参考スコア(独自算出の注目度): 4.106941784309168
- License:
- Abstract: With AI systems widely applied to assist human in decision-making processes such as talent hiring, school admission, and loan approval; there is an increasing need to ensure that the decisions made are fair. One major challenge for analyzing fairness in decisions is that the standards are highly subjective and contextual -- there is no consensus for what absolute fairness means for every scenario. Not to say that different fairness standards often conflict with each other. To bypass this issue, this work aims to test relative fairness in decisions. That is, instead of defining what are ``absolutely'' fair decisions, we propose to test the relative fairness of one decision set against another with differential parity -- the difference between two sets of decisions should be independent from a certain sensitive attribute. This proposed differential parity fairness notion has the following benefits: (1) it avoids the ambiguous and contradictory definition of ``absolutely'' fair decisions; (2) it reveals the relative preference and bias between two decision sets; (3) differential parity can serve as a new group fairness notion when a reference set of decisions (ground truths) is provided. One limitation for differential parity is that, it requires the two sets of decisions under comparison to be made on the same data subjects. To overcome this limitation, we propose to utilize a machine learning model to bridge the gap between the two decisions sets made on difference data and estimate the differential parity.
- Abstract(参考訳): 人材採用、学校入学、ローン承認などの意思決定プロセスにおいて、AIシステムが広く応用されているため、決定が公平であることを保証する必要性が高まっている。
決定における公正性を分析する上で大きな課題のひとつは、基準が非常に主観的で文脈的である。あらゆるシナリオに絶対的公正性が何を意味するかについてのコンセンサスはない。異なる公正性標準が相反することが多いことは言うまでもない。この問題を回避するために、この研究は、意思決定における相対的公正性をテストすることを目的としている。つまり、「絶対的に」公正な決定であるものを定義する代わりに、ある決定の相対的公正性をテストすることを提案する。
この微分パリティフェアネスの概念は、(1)「絶対的」な決定の不明瞭かつ矛盾した定義を避けること、(2)2つの決定セット間の相対的な嗜好と偏見を明らかにすること、(3)「微分パリティ」は、基準的決定(基底真理)が提供されるとき、新しいグループフェアネスの概念として機能すること、という利点を持つ。
微分パリティの1つの制限は、同じデータ対象に対して比較される2つの決定セットを必要とすることである。
この制限を克服するため,差分データに基づく2つの決定セット間のギャップを埋める機械学習モデルを提案し,差分パリティを推定する。
関連論文リスト
- (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers [0.0]
公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
論文 参考訳(メタデータ) (2024-09-19T11:44:03Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - On Fair Selection in the Presence of Implicit and Differential Variance [22.897402186120434]
本研究では, 意思決定者が各候補の品質のノイズの多い推定値を受け取り, その差が候補群に依存するモデルについて検討する。
どちらの基準決定要因も、反対方向にも差別をもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-10T16:04:13Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。