論文の概要: Consider the Alternatives: Navigating Fairness-Accuracy Tradeoffs via
Disqualification
- arxiv url: http://arxiv.org/abs/2110.00813v1
- Date: Sat, 2 Oct 2021 14:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 11:53:37.966397
- Title: Consider the Alternatives: Navigating Fairness-Accuracy Tradeoffs via
Disqualification
- Title(参考訳): 代替策を考える:不平等を通した公正・正確取引
- Authors: Guy N. Rothblum and Gal Yona
- Abstract要約: 多くの機械学習環境では、公平さと精度のデシダラタの間には固有の緊張関係がある。
フェアネスと精度のトレードオフを推論する新しいフレームワークである$gamma$-disqualificationを紹介し,研究する。
例えば$gamma$-disqualification($gamma$-disqualification,$gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification)は,学習方法のトレードオフや精度を比較できる。
- 参考スコア(独自算出の注目度): 7.9649015115693444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many machine learning settings there is an inherent tension between
fairness and accuracy desiderata. How should one proceed in light of such
trade-offs? In this work we introduce and study $\gamma$-disqualification, a
new framework for reasoning about fairness-accuracy tradeoffs w.r.t a benchmark
class $H$ in the context of supervised learning. Our requirement stipulates
that a classifier should be disqualified if it is possible to improve its
fairness by switching to another classifier from $H$ without paying "too much"
in accuracy. The notion of "too much" is quantified via a parameter $\gamma$
that serves as a vehicle for specifying acceptable tradeoffs between accuracy
and fairness, in a way that is independent from the specific metrics used to
quantify fairness and accuracy in a given task. Towards this objective, we
establish principled translations between units of accuracy and units of
(un)fairness for different accuracy measures. We show $\gamma$-disqualification
can be used to easily compare different learning strategies in terms of how
they trade-off fairness and accuracy, and we give an efficient reduction from
the problem of finding the optimal classifier that satisfies our requirement to
the problem of approximating the Pareto frontier of $H$.
- Abstract(参考訳): 多くの機械学習では、公平性と正確性には固有の緊張関係がある。
このようなトレードオフに照らして、どのように進めるべきか?
本研究では, 教師あり学習の文脈において, 公平性と精度のトレードオフを推論する新しいフレームワークである$\gamma$-disqualificationを紹介し, 研究する。
我々の要件は、精度で「多く」支払うことなく、別の分類器を$H$から$H$に切り替えることで、公平性を向上させることができれば、分類器は失格化されるべきである。
過剰」の概念は、与えられたタスクにおける公正さと正確さの定量化に使用される特定の指標とは独立に、正確性と公平性の間の許容されるトレードオフを特定する手段として機能するパラメータ$\gamma$によって定量化される。
この目的に向けて, 精度測定の異なる単位と(未)公正の単位との間の原理的翻訳を確立する。
我々は,異なる学習戦略を公平さと正確さのトレードオフの観点から容易に比較するために,\gamma$-disqualification を用いて,pareto のフロンティアを近似する問題に対する我々の要求を満たす最適分類器を求める問題から効率的な削減を行う。
関連論文リスト
- Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fairly Accurate: Learning Optimal Accuracy vs. Fairness Tradeoffs for
Hate Speech Detection [8.841221697099687]
本稿では,モデルトレーニングにおけるグループフェアネスの直接最適化を可能にする,微分可能な尺度を提案する。
ヘイトスピーチ検出の特定のタスクについて,本手法の評価を行った。
畳み込み、シーケンシャル、トランスフォーマーに基づくニューラルネットワークによる実験結果は、事前の作業よりも経験的精度が優れている。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - Does the End Justify the Means? On the Moral Justification of
Fairness-Aware Machine Learning [6.327435698167334]
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
本稿では,その最適化のためのフェアmlアルゴリズムの利用の道徳的意味について考察する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - The Interplay between Distribution Parameters and the
Accuracy-Robustness Tradeoff in Classification [0.0]
アドリラルトレーニングは、通常のモデルに比べて自然(未成熟)の例では正確でないモデルをもたらす傾向にある。
これは、アルゴリズムの欠点か、トレーニングデータ分散の基本的な性質によるものとみなすことができる。
本研究では,二進ガウス混合分類問題の下で後者のケースに焦点をあてる。
論文 参考訳(メタデータ) (2021-07-01T06:57:50Z) - Measuring Model Fairness under Noisy Covariates: A Theoretical
Perspective [26.704446184314506]
本研究では,雑音情報に基づく機械学習モデルの公平性の測定問題について検討する。
本稿では, 精度の高い公平性評価が可能な弱い条件を特徴付けることを目的とした理論的解析を行う。
論文 参考訳(メタデータ) (2021-05-20T18:36:28Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。