論文の概要: Accuracy vs. Accuracy: Computational Tradeoffs Between Classification Rates and Utility
- arxiv url: http://arxiv.org/abs/2505.16494v1
- Date: Thu, 22 May 2025 10:26:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.224653
- Title: Accuracy vs. Accuracy: Computational Tradeoffs Between Classification Rates and Utility
- Title(参考訳): 精度対精度:分類率と実用性の間の計算トレードオフ
- Authors: Noga Amit, Omer Reingold, Guy N. Rothblum,
- Abstract要約: トレーニングデータがよりリッチなラベルを含むような環境で、フェアネスの基礎と実用性と効率性との相互作用を再考する。
本研究では,標準的な教師あり学習よりもエビデンスに基づく公平性の概念をより高めるアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.99674326582747
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We revisit the foundations of fairness and its interplay with utility and efficiency in settings where the training data contain richer labels, such as individual types, rankings, or risk estimates, rather than just binary outcomes. In this context, we propose algorithms that achieve stronger notions of evidence-based fairness than are possible in standard supervised learning. Our methods support classification and ranking techniques that preserve accurate subpopulation classification rates, as suggested by the underlying data distributions, across a broad class of classification rules and downstream applications. Furthermore, our predictors enable loss minimization, whether aimed at maximizing utility or in the service of fair treatment. Complementing our algorithmic contributions, we present impossibility results demonstrating that simultaneously achieving accurate classification rates and optimal loss minimization is, in some cases, computationally infeasible. Unlike prior impossibility results, our notions are not inherently in conflict and are simultaneously satisfied by the Bayes-optimal predictor. Furthermore, we show that each notion can be satisfied individually via efficient learning. Our separation thus stems from the computational hardness of learning a sufficiently good approximation of the Bayes-optimal predictor. These computational impossibilities present a choice between two natural and attainable notions of accuracy that could both be motivated by fairness.
- Abstract(参考訳): トレーニングデータには、個別のタイプ、ランキング、リスク見積といったリッチなラベルが含まれており、2進的な結果に留まらない設定において、フェアネスの基礎を再考する。
この文脈では、標準的な教師あり学習よりもエビデンスに基づく公正性の強い概念を実現するアルゴリズムを提案する。
本手法は,広範囲の分類規則と下流アプリケーションにおいて,下位データ分布によって示唆されるように,正確なサブポピュレーション分類率を維持するための分類・ランキング技術をサポートする。
さらに, この予測器は, 有効性を最大化しようとも, 公平な処理を行えようとも, 損失最小化を可能にする。
アルゴリズムによるコントリビューションを補完し、正確な分類率と最適損失最小化を同時に達成することは、計算的に不可能であることを示す。
従来の不可能な結果とは異なり、我々の概念は本質的に矛盾するものではなく、ベイズ最適予測器によって同時に満たされる。
さらに,各概念を効率よく学習することで個別に満足できることを示す。
この分離はベイズ最適予測器の十分な近似を学習する際の計算困難さに起因している。
これらの計算不可能性は、正当性によって動機付けられる2つの自然な概念と達成可能な精度の概念の間に選択を与える。
関連論文リスト
- Uncertainty-Aware Fairness-Adaptive Classification Trees [0.0]
本稿では,木構築プロセスに公平性調整を組み込んだ新しい分割基準を用いた新しい分類木アルゴリズムを提案する。
本手法は,従来の分類木に比べて識別予測を効果的に削減し,全体的な精度を損なわないことを示す。
論文 参考訳(メタデータ) (2024-10-08T08:42:12Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Learning Optimal Fair Classification Trees: Trade-offs Between
Interpretability, Fairness, and Accuracy [7.215903549622416]
最適分類木を学習するための混合整数最適化フレームワークを提案する。
我々は、一般的なデータセットの公平な分類のための最先端アプローチに対して、我々の手法をベンチマークする。
我々の手法は、ほぼ完全に一致した決定を一貫して見つけ出すが、他の手法は滅多にない。
論文 参考訳(メタデータ) (2022-01-24T19:47:10Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。