論文の概要: Group-Aware Threshold Adaptation for Fair Classification
- arxiv url: http://arxiv.org/abs/2111.04271v1
- Date: Mon, 8 Nov 2021 04:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:22:31.920893
- Title: Group-Aware Threshold Adaptation for Fair Classification
- Title(参考訳): 公正分類のためのグループ認識閾値適応
- Authors: Taeuk Jang, Pengyi Shi, Xiaoqian Wang
- Abstract要約: 複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 9.496524884855557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fairness in machine learning is getting increasing attention, as its
applications in different fields continue to expand and diversify. To mitigate
the discriminated model behaviors between different demographic groups, we
introduce a novel post-processing method to optimize over multiple fairness
constraints through group-aware threshold adaptation. We propose to learn
adaptive classification thresholds for each demographic group by optimizing the
confusion matrix estimated from the probability distribution of a
classification model output. As we only need an estimated probability
distribution of model output instead of the classification model structure, our
post-processing model can be applied to a wide range of classification models
and improve fairness in a model-agnostic manner and ensure privacy. This even
allows us to post-process existing fairness methods to further improve the
trade-off between accuracy and fairness. Moreover, our model has low
computational cost. We provide rigorous theoretical analysis on the convergence
of our optimization algorithm and the trade-off between accuracy and fairness
of our method. Our method theoretically enables a better upper bound in near
optimality than existing method under same condition. Experimental results
demonstrate that our method outperforms state-of-the-art methods and obtains
the result that is closest to the theoretical accuracy-fairness trade-off
boundary.
- Abstract(参考訳): 機械学習の公平さは、さまざまな分野の応用が拡大し多様化し続けており、注目を集めている。
異なる階層群間での判別モデル行動を軽減するために,グループ認識しきい値適応による複数のフェアネス制約を克服するポストプロセッシング手法を提案する。
分類モデル出力の確率分布から推定される混乱行列を最適化することにより,各階層群の適応型分類閾値を学習する。
分類モデル構造に代えて、モデル出力の推定確率分布のみを必要とするため、この後処理モデルは、幅広い分類モデルに適用でき、モデル非依存な方法で公平性を改善し、プライバシを確保することができる。
これにより、既存の公正メソッドを後処理して、正確性と公平性のトレードオフをさらに改善することができます。
さらに,本モデルでは計算コストが低い。
本稿では,最適化アルゴリズムの収束と,精度と妥当性のトレードオフに関する厳密な理論的解析を行う。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験により,提案手法は最先端手法より優れ,理論精度-公正トレードオフ境界に最も近い結果が得られることが示された。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Learning Optimal Fair Classification Trees: Trade-offs Between
Interpretability, Fairness, and Accuracy [7.215903549622416]
最適分類木を学習するための混合整数最適化フレームワークを提案する。
我々は、一般的なデータセットの公平な分類のための最先端アプローチに対して、我々の手法をベンチマークする。
我々の手法は、ほぼ完全に一致した決定を一貫して見つけ出すが、他の手法は滅多にない。
論文 参考訳(メタデータ) (2022-01-24T19:47:10Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。