論文の概要: Fair Decisions from Calibrated Scores: Achieving Optimal Classification While Satisfying Sufficiency
- arxiv url: http://arxiv.org/abs/2602.07285v1
- Date: Sat, 07 Feb 2026 00:26:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.552042
- Title: Fair Decisions from Calibrated Scores: Achieving Optimal Classification While Satisfying Sufficiency
- Title(参考訳): 校正スコアの公平な決定:十分満足しながら最適な分類を実現する
- Authors: Etam Benger, Katrina Ligett,
- Abstract要約: 予測確率(スコア)に基づくバイナリ分類は、教師付き機械学習の基本的なタスクである。
群校正スコアの有限集合を仮定して、十分条件下での最適二項分類の正確な解を提案する。
- 参考スコア(独自算出の注目度): 2.0686600920324163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Binary classification based on predicted probabilities (scores) is a fundamental task in supervised machine learning. While thresholding scores is Bayes-optimal in the unconstrained setting, using a single threshold generally violates statistical group fairness constraints. Under independence (statistical parity) and separation (equalized odds), such thresholding suffices when the scores already satisfy the corresponding criterion. However, this does not extend to sufficiency: even perfectly group-calibrated scores -- including true class probabilities -- violate predictive parity after thresholding. In this work, we present an exact solution for optimal binary (randomized) classification under sufficiency, assuming finite sets of group-calibrated scores. We provide a geometric characterization of the feasible pairs of positive predictive value (PPV) and false omission rate (FOR) achievable by such classifiers, and use it to derive a simple post-processing algorithm that attains the optimal classifier using only group-calibrated scores and group membership. Finally, since sufficiency and separation are generally incompatible, we identify the classifier that minimizes deviation from separation subject to sufficiency, and show that it can also be obtained by our algorithm, often achieving performance comparable to the optimum.
- Abstract(参考訳): 予測確率(スコア)に基づくバイナリ分類は、教師付き機械学習の基本的なタスクである。
しきい値のスコアは、制約のない設定ではベイズ最適であるが、単一のしきい値を使用すると、一般に統計的グループフェアネスの制約に反する。
独立性(統計パリティ)と分離性(等化確率)の下では、スコアが対応する基準をすでに満たしている場合には、しきい値が十分である。
しかし、これは十分ではない:真のクラス確率を含む完全なグループ校正スコアでさえ、閾値付け後の予測パリティに反する。
本研究では、群校正スコアの有限集合を仮定して、十分条件下での最適二項(ランダム化)分類の正確な解を提案する。
このような分類器によって達成可能な正の予測値(PPV)と偽の排他率(FOR)の可能なペアの幾何学的特徴付けを行い、グループ校正スコアとグループメンバーシップのみを用いて最適な分類器を得るための単純な後処理アルゴリズムを導出する。
最後に, 十分性と分離性は一般に相容れないため, 分離対象の分離から逸脱を最小限に抑える分類器を同定し, アルゴリズムによっても得られることを示す。
関連論文リスト
- Almost Asymptotically Optimal Active Clustering Through Pairwise Observations [59.20614082241528]
そこで本研究では, ノイズと能動的に収集された応答を用いて, M$アイテムを未知数の$K$個別グループにクラスタリングするための新しい分析フレームワークを提案する。
クラスタリングの精度に対する望ましい信頼性を達成するのに必要なクエリ数の基本的下位境界を確立する。
我々は、一般化された同値比統計の計算可能な変種を開発し、その下限に対する性能ギャップを正確に推定できることを実証的に示す。
論文 参考訳(メタデータ) (2026-02-05T14:16:47Z) - Principled Algorithms for Optimizing Generalized Metrics in Binary Classification [53.604375124674796]
一般化されたメトリクスを最適化するアルゴリズムを導入し、$H$-consistency と finite-sample generalization bounds をサポートする。
提案手法は,メトリクス最適化を一般化したコスト依存学習問題として再検討する。
我々は,理論性能を保証する新しいアルゴリズムMETROを開発した。
論文 参考訳(メタデータ) (2025-12-29T01:33:42Z) - Accuracy vs. Accuracy: Computational Tradeoffs Between Classification Rates and Utility [6.99674326582747]
トレーニングデータがよりリッチなラベルを含むような環境で、フェアネスの基礎と実用性と効率性との相互作用を再考する。
本研究では,標準的な教師あり学習よりもエビデンスに基づく公平性の概念をより高めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-22T10:26:30Z) - A Unified Post-Processing Framework for Group Fairness in Classification [10.615965454674901]
本稿では, グループフェアネスの基準である統計パリティ, 平等機会, 等化確率を1つの枠組みでカバーする, 公平分類のためのポストプロセッシングアルゴリズムを提案する。
我々のアルゴリズムは「LinearPost」と呼ばれ、(不公平な)ベース予測器の予測を、(予測された)グループメンバーシップの重み付けによる「公正リスク」で線形変換することで、公正なポストホックを実現する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Classification with abstention but without disparities [5.025654873456756]
我々は、異なる影響を回避しつつ、予測を棄却できる汎用的な分類アルゴリズムを構築した。
提案したアルゴリズムに対して,有限サンプルリスク,公平性,および留意保証を確立する。
本手法は, 適度な禁制率により, リスク・フェアネストレードオフを回避できることを実証的に示す。
論文 参考訳(メタデータ) (2021-02-24T12:43:55Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - To Split or Not to Split: The Impact of Disparate Treatment in
Classification [8.325775867295814]
異なる処理は、機械学習モデルが機密属性に基づいて個人に対して異なる決定を下すときに発生する。
本稿では,分類器の分割による性能改善の定量化のための分割処理の利点を紹介する。
我々は,小規模凸プログラムを解くことで効率よく計算できる分割利益の等価表現を証明した。
論文 参考訳(メタデータ) (2020-02-12T04:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。