論文の概要: Consider the Alternatives: Navigating Fairness-Accuracy Tradeoffs via
Disqualification
- arxiv url: http://arxiv.org/abs/2110.00813v1
- Date: Sat, 2 Oct 2021 14:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 11:53:37.966397
- Title: Consider the Alternatives: Navigating Fairness-Accuracy Tradeoffs via
Disqualification
- Title(参考訳): 代替策を考える:不平等を通した公正・正確取引
- Authors: Guy N. Rothblum and Gal Yona
- Abstract要約: 多くの機械学習環境では、公平さと精度のデシダラタの間には固有の緊張関係がある。
フェアネスと精度のトレードオフを推論する新しいフレームワークである$gamma$-disqualificationを紹介し,研究する。
例えば$gamma$-disqualification($gamma$-disqualification,$gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification)は,学習方法のトレードオフや精度を比較できる。
- 参考スコア(独自算出の注目度): 7.9649015115693444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many machine learning settings there is an inherent tension between
fairness and accuracy desiderata. How should one proceed in light of such
trade-offs? In this work we introduce and study $\gamma$-disqualification, a
new framework for reasoning about fairness-accuracy tradeoffs w.r.t a benchmark
class $H$ in the context of supervised learning. Our requirement stipulates
that a classifier should be disqualified if it is possible to improve its
fairness by switching to another classifier from $H$ without paying "too much"
in accuracy. The notion of "too much" is quantified via a parameter $\gamma$
that serves as a vehicle for specifying acceptable tradeoffs between accuracy
and fairness, in a way that is independent from the specific metrics used to
quantify fairness and accuracy in a given task. Towards this objective, we
establish principled translations between units of accuracy and units of
(un)fairness for different accuracy measures. We show $\gamma$-disqualification
can be used to easily compare different learning strategies in terms of how
they trade-off fairness and accuracy, and we give an efficient reduction from
the problem of finding the optimal classifier that satisfies our requirement to
the problem of approximating the Pareto frontier of $H$.
- Abstract(参考訳): 多くの機械学習では、公平性と正確性には固有の緊張関係がある。
このようなトレードオフに照らして、どのように進めるべきか?
本研究では, 教師あり学習の文脈において, 公平性と精度のトレードオフを推論する新しいフレームワークである$\gamma$-disqualificationを紹介し, 研究する。
我々の要件は、精度で「多く」支払うことなく、別の分類器を$H$から$H$に切り替えることで、公平性を向上させることができれば、分類器は失格化されるべきである。
過剰」の概念は、与えられたタスクにおける公正さと正確さの定量化に使用される特定の指標とは独立に、正確性と公平性の間の許容されるトレードオフを特定する手段として機能するパラメータ$\gamma$によって定量化される。
この目的に向けて, 精度測定の異なる単位と(未)公正の単位との間の原理的翻訳を確立する。
我々は,異なる学習戦略を公平さと正確さのトレードオフの観点から容易に比較するために,\gamma$-disqualification を用いて,pareto のフロンティアを近似する問題に対する我々の要求を満たす最適分類器を求める問題から効率的な削減を行う。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Fairly Accurate: Learning Optimal Accuracy vs. Fairness Tradeoffs for
Hate Speech Detection [8.841221697099687]
本稿では,モデルトレーニングにおけるグループフェアネスの直接最適化を可能にする,微分可能な尺度を提案する。
ヘイトスピーチ検出の特定のタスクについて,本手法の評価を行った。
畳み込み、シーケンシャル、トランスフォーマーに基づくニューラルネットワークによる実験結果は、事前の作業よりも経験的精度が優れている。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - The Interplay between Distribution Parameters and the
Accuracy-Robustness Tradeoff in Classification [0.0]
アドリラルトレーニングは、通常のモデルに比べて自然(未成熟)の例では正確でないモデルをもたらす傾向にある。
これは、アルゴリズムの欠点か、トレーニングデータ分散の基本的な性質によるものとみなすことができる。
本研究では,二進ガウス混合分類問題の下で後者のケースに焦点をあてる。
論文 参考訳(メタデータ) (2021-07-01T06:57:50Z) - Measuring Model Fairness under Noisy Covariates: A Theoretical
Perspective [26.704446184314506]
本研究では,雑音情報に基づく機械学習モデルの公平性の測定問題について検討する。
本稿では, 精度の高い公平性評価が可能な弱い条件を特徴付けることを目的とした理論的解析を行う。
論文 参考訳(メタデータ) (2021-05-20T18:36:28Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。