論文の概要: Beyond Impossibility: Balancing Sufficiency, Separation and Accuracy
- arxiv url: http://arxiv.org/abs/2205.12327v1
- Date: Tue, 24 May 2022 19:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 03:53:34.909325
- Title: Beyond Impossibility: Balancing Sufficiency, Separation and Accuracy
- Title(参考訳): 不可能を超えて: 十分性、分離、正確さのバランスをとる
- Authors: Limor Gultchin, Vincent Cohen-Addad, Sophie Giffard-Roisin, Varun
Kanade, Frederik Mallmann-Trenn
- Abstract要約: 満足度とテキストセパレーションの緊張
本研究の目的は,テクスチャフィフィフィリエイトとテクスチャセパレーションのバランスをとることである。
既存の代替手段よりも優れたトレードオフが達成できる、有望な結果を示します。
- 参考スコア(独自算出の注目度): 27.744055920557024
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Among the various aspects of algorithmic fairness studied in recent years,
the tension between satisfying both \textit{sufficiency} and
\textit{separation} -- e.g. the ratios of positive or negative predictive
values, and false positive or false negative rates across groups -- has
received much attention. Following a debate sparked by COMPAS, a criminal
justice predictive system, the academic community has responded by laying out
important theoretical understanding, showing that one cannot achieve both with
an imperfect predictor when there is no equal distribution of labels across the
groups. In this paper, we shed more light on what might be still possible
beyond the impossibility -- the existence of a trade-off means we should aim to
find a good balance within it. After refining the existing theoretical result,
we propose an objective that aims to balance \textit{sufficiency} and
\textit{separation} measures, while maintaining similar accuracy levels. We
show the use of such an objective in two empirical case studies, one involving
a multi-objective framework, and the other fine-tuning of a model pre-trained
for accuracy. We show promising results, where better trade-offs are achieved
compared to existing alternatives.
- Abstract(参考訳): 近年研究されているアルゴリズム的公平性の様々な側面のうち、正の予測値と負の予測値の比率と、集団間の偽の正または偽の負の比率の両方を満たすことの緊張が注目されている。
刑事司法予測システムであるcompasによって引き起こされた議論に続いて、学術界は重要な理論的理解を整理し、グループ間でラベルが均等に分布しない場合、不完全な予測器で両方を達成できないことを示した。
この論文では、不確実性を超えてまだ何が可能なのかについて、さらに光を当てています。
既存の理論結果を精錬した後、同様の精度レベルを維持しつつ、 \textit{sufficiency} と \textit{separation} の尺度をバランスさせることを目的とする。
本稿では,多目的フレームワークを含む2つの経験的ケーススタディと,精度のために事前学習したモデルの微調整について述べる。
既存の代替手段よりも優れたトレードオフが達成できる、有望な結果を示します。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - A Theoretical Approach to Characterize the Accuracy-Fairness Trade-off
Pareto Frontier [42.18013955576355]
正確さと公正さのトレードオフは、公正な機械学習の文献でよく観察されている。
この研究は、精度-公正トレードオフの形状を特徴付けることによって理論的枠組みの開発を目指している。
提案した研究は、精度と公正性のトレードオフの深い理解を可能にし、現在の公正な機械学習研究を新たなフロンティアに押し上げる。
論文 参考訳(メタデータ) (2023-10-19T14:35:26Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Fairness under Covariate Shift: Improving Fairness-Accuracy tradeoff
with few Unlabeled Test Samples [21.144077993862652]
我々は、ラベル付きトレーニングセットとともに、ラベル付きテストサンプルの小さなセットのみが利用可能である教師なしのシステムで運用する。
我々は、損失定式化による最適化が、最先端のベースラインよりも優れていることを実験的に検証した。
提案手法は, それらの性能を著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-10-11T14:39:51Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice [5.175941513195566]
非互換な公正性制約を満たすようなモデルの大規模な集合を同定することは可能であることを示す。
私たちは、実践者が、いつ、そして、どのようにして、複数の基準に沿った公平性を達成できるかを理解するためのツールとガイダンスを提供します。
論文 参考訳(メタデータ) (2023-02-13T13:29:24Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Balanced Q-learning: Combining the Influence of Optimistic and
Pessimistic Targets [74.04426767769785]
シナリオによっては、特定の種類の偏見が好ましいかもしれないことを示す。
そこで我々は,目標を悲観的かつ楽観的な用語の凸組合せに修正した新しい強化学習アルゴリズムであるBa balanced Q-learningを設計する。
論文 参考訳(メタデータ) (2021-11-03T07:30:19Z) - Emergent Unfairness in Algorithmic Fairness-Accuracy Trade-Off Research [2.6397379133308214]
このような仮定は、しばしば暗黙的かつ未検討のまま残され、矛盾した結論につながると我々は主張する。
この研究の目的は、機械学習モデルの公平性を改善することだが、これらの未検討の暗黙の仮定は、実際、突発的な不公平をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-02-01T22:02:14Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。