論文の概要: Statistical Equity: A Fairness Classification Objective
- arxiv url: http://arxiv.org/abs/2005.07293v1
- Date: Thu, 14 May 2020 23:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:12:45.926531
- Title: Statistical Equity: A Fairness Classification Objective
- Title(参考訳): 統計的等価性:公正分類の対象
- Authors: Ninareh Mehrabi, Yuzhong Huang, Fred Morstatter
- Abstract要約: エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
- 参考スコア(独自算出の注目度): 6.174903055136084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning systems have been shown to propagate the societal errors of
the past. In light of this, a wealth of research focuses on designing solutions
that are "fair." Even with this abundance of work, there is no singular
definition of fairness, mainly because fairness is subjective and context
dependent. We propose a new fairness definition, motivated by the principle of
equity, that considers existing biases in the data and attempts to make
equitable decisions that account for these previous historical biases. We
formalize our definition of fairness, and motivate it with its appropriate
contexts. Next, we operationalize it for equitable classification. We perform
multiple automatic and human evaluations to show the effectiveness of our
definition and demonstrate its utility for aspects of fairness, such as the
feedback loop.
- Abstract(参考訳): 機械学習システムは、過去の社会的な誤りを広めることが示されている。
これを踏まえて、豊富な研究は「公正」なソリューションの設計に焦点を当てている。
この仕事の多さにもかかわらず、公正性は主観的であり、文脈に依存しているため、公正性の特異な定義は存在しない。
我々は,データの既存のバイアスを考慮し,過去の歴史バイアスを考慮した公平な決定を試み,公平性原理に動機づけられた新たな公平性定義を提案する。
公正の定義を形式化し、適切な文脈でそれを動機付けます。
次に、等価分類のために運用する。
フィードバックループなどの公正な側面に対して,定義の有効性を示すために,複数の自動評価と人的評価を行い,その有用性を実証する。
関連論文リスト
- Subjective fairness in algorithmic decision-support [0.0]
意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
論文 参考訳(メタデータ) (2024-06-28T14:37:39Z) - The Unfairness of $\varepsilon$-Fairness [0.0]
我々は、$varepsilon$-fairnessという概念が採用されれば、現実世界の文脈で最大に不公平な結果をもたらす可能性があることを示した。
本研究は,大学入学と信用リスク評価の2つの実例を用いて実施した。
論文 参考訳(メタデータ) (2024-05-15T14:13:35Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Toward A Logical Theory Of Fairness and Bias [12.47276164048813]
公正定義の形式的な再構築を主張する。
我々は、無意識による公平さ、人口的平等、そして反事実公正という3つの概念を考察する。
論文 参考訳(メタデータ) (2023-06-08T09:18:28Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards the Right Kind of Fairness in AI [3.723553383515688]
フェアネスコンパス(Fairness Compass)は、特定のシステムに対して最も適切なフェアネスメトリックを簡単かつ簡単な手順で特定するツールである。
私たちは、このプロセスの過程で各決定の背後にある推論を文書化することは、ユーザーからの信頼を構築するのに役立ちます。
論文 参考訳(メタデータ) (2021-02-16T21:12:30Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。