論文の概要: A Ranking Approach to Fair Classification
- arxiv url: http://arxiv.org/abs/2102.04565v1
- Date: Mon, 8 Feb 2021 22:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 14:59:56.460810
- Title: A Ranking Approach to Fair Classification
- Title(参考訳): 公平な分類へのランク付けアプローチ
- Authors: Jakob Schoeffer, Niklas Kuehl, Isabel Valera
- Abstract要約: アルゴリズムによる意思決定システムは、雇用、学校入学、ローン承認などの分野でますます使われている。
多くのシナリオでは、ゼロ・トゥルース・ラベルは利用できなくなり、代わりに人間による決定の結果、不完全なラベルにしかアクセスできません。
本稿では,従来の分類アルゴリズムの代替として,公平なランク付けに基づく意思決定システムを提案する。
- 参考スコア(独自算出の注目度): 11.35838396538348
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Algorithmic decision systems are increasingly used in areas such as hiring,
school admission, or loan approval. Typically, these systems rely on labeled
data for training a classification model. However, in many scenarios,
ground-truth labels are unavailable, and instead we have only access to
imperfect labels as the result of (potentially biased) human-made decisions.
Despite being imperfect, historical decisions often contain some useful
information on the unobserved true labels. In this paper, we focus on scenarios
where only imperfect labels are available and propose a new fair ranking-based
decision system, as an alternative to traditional classification algorithms.
Our approach is both intuitive and easy to implement, and thus particularly
suitable for adoption in real-world settings. More in detail, we introduce a
distance-based decision criterion, which incorporates useful information from
historical decisions and accounts for unwanted correlation between protected
and legitimate features. Through extensive experiments on synthetic and
real-world data, we show that our method is fair, as it a) assigns the
desirable outcome to the most qualified individuals, and b) removes the effect
of stereotypes in decision-making, thereby outperforming traditional
classification algorithms. Additionally, we are able to show theoretically that
our method is consistent with a prominent concept of individual fairness which
states that "similar individuals should be treated similarly."
- Abstract(参考訳): アルゴリズムによる意思決定システムは、雇用、学校入学、ローン承認などの分野でますます使われている。
通常、これらのシステムは分類モデルのトレーニングにラベル付きデータに依存する。
しかし、多くのシナリオでは、グラウンドトラスラベルは利用できず、代わりに(潜在的に偏った)人為的な決定の結果、不完全なラベルにしかアクセスできません。
不完全であるにもかかわらず、歴史的決定はしばしば、観測されていない真のラベルに関する有用な情報を含んでいる。
本稿では,不完全なラベルのみを利用できるシナリオに着目し,従来の分類アルゴリズムに代わる公平なランク付けに基づく意思決定システムを提案する。
われわれのアプローチは直感的で実装が容易であり、現実の環境での採用に特に適している。
より詳しくは、歴史的決定から有用な情報と、保護された特徴と正当な特徴との無関係な相関を考慮に入れた、距離に基づく意思決定基準を導入する。
総合的および実世界データに関する広範囲な実験を通じて,本手法は,a)最も適格な個人に望ましい結果を与え,b)意思決定におけるステレオタイプの影響を除去し,従来の分類アルゴリズムを上回っていることを示す。
さらに、我々の手法は「類似した個人も同様に扱われるべき」という個々の公正性の顕著な概念と一致していることを示すことができる。
関連論文リスト
- Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Identifying Reasons for Bias: An Argumentation-Based Approach [2.9465623430708905]
そこで本研究では, 類似した個人と比較して, 個人が別々に分類される理由を決定するための, モデルに依存しない議論に基づく新しい手法を提案する。
フェアネス文献でよく用いられる2つのデータセットを用いて本手法の評価を行い,バイアスの同定に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-25T09:47:15Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Partial-Label Regression [54.74984751371617]
部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
論文 参考訳(メタデータ) (2023-06-15T09:02:24Z) - Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision
Making [14.905698014932488]
そこで本研究では,実用的公正意思決定のための変分オートエンコーダに基づく新しい手法を提案する。
本手法はラベル付きデータとラベルなしデータの両方を活用する非バイアスデータ表現を学習する。
提案手法は,低分散の基底構造に従って最適(フェア)ポリシーに収束する。
論文 参考訳(メタデータ) (2022-05-10T10:33:11Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - Beyond traditional assumptions in fair machine learning [5.029280887073969]
この論文は、連続的な意思決定における公正性に対する従来の機械学習アプローチの基礎となる一般的な仮定を精査する。
観測データの統計的特性に基づいたグループフェアネス基準は, 基本的に限定的であることを示す。
我々は、機密データが実際に容易に利用できるという仮定を克服する。
論文 参考訳(メタデータ) (2021-01-29T09:02:15Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。