論文の概要: Adaptive Boosting with Fairness-aware Reweighting Technique for Fair
Classification
- arxiv url: http://arxiv.org/abs/2401.03097v1
- Date: Sat, 6 Jan 2024 00:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:35:51.894495
- Title: Adaptive Boosting with Fairness-aware Reweighting Technique for Fair
Classification
- Title(参考訳): fairness-aware reweighting法によるfair分類のための適応ブースティング
- Authors: Xiaobin Song, Zeyuan Liu, Benben Jiang
- Abstract要約: AdaBoost の解釈可能なフェアネス改善型である新しいフェア AdaBoost (FAB) アプローチが提案されている。
主に二分分類問題について検討し、3つの異なる指標の公平性に着目した。
FABはAdaBoostと比較して、少ない精度で分類公正性を著しく改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning methods based on AdaBoost have been widely applied to
various classification problems across many mission-critical applications
including healthcare, law and finance. However, there is a growing concern
about the unfairness and discrimination of data-driven classification models,
which is inevitable for classical algorithms including AdaBoost. In order to
achieve fair classification, a novel fair AdaBoost (FAB) approach is proposed
that is an interpretable fairness-improving variant of AdaBoost. We mainly
investigate binary classification problems and focus on the fairness of three
different indicators (i.e., accuracy, false positive rate and false negative
rate). By utilizing a fairness-aware reweighting technique for base
classifiers, the proposed FAB approach can achieve fair classification while
maintaining the advantage of AdaBoost with negligible sacrifice of predictive
performance. In addition, a hyperparameter is introduced in FAB to show
preferences for the fairness-accuracy trade-off. An upper bound for the target
loss function that quantifies error rate and unfairness is theoretically
derived for FAB, which provides a strict theoretical support for the
fairness-improving methods designed for AdaBoost. The effectiveness of the
proposed method is demonstrated on three real-world datasets (i.e., Adult,
COMPAS and HSLS) with respect to the three fairness indicators. The results are
accordant with theoretic analyses, and show that (i) FAB significantly improves
classification fairness at a small cost of accuracy compared with AdaBoost; and
(ii) FAB outperforms state-of-the-art fair classification methods including
equalized odds method, exponentiated gradient method, and disparate
mistreatment method in terms of the fairness-accuracy trade-off.
- Abstract(参考訳): AdaBoostに基づく機械学習手法は、医療、法律、ファイナンスを含む多くのミッションクリティカルなアプリケーションにおいて、様々な分類問題に広く適用されてきた。
しかし、データ駆動型分類モデルの不公平性と識別に関する懸念が高まっており、adaboostを含む古典的アルゴリズムでは避けられない。
公平な分類を達成するために、AdaBoostの解釈可能なフェアネス改善型である新しいフェアアダBoost (FAB) アプローチを提案する。
主に二分分類問題を調査し,3つの指標(精度,偽陽性率,偽陰性率)の公平性に着目した。
ベース分類器の公平性を考慮した再重み付け手法を用いることで,予測性能の犠牲のないAdaBoostの利点を維持しつつ,公平な分類を実現することができる。
さらに、フェアネス精度トレードオフの好みを示すために、FABにハイパーパラメータが導入された。
誤差率と不公平性を定量化する目標損失関数の上界は、AdaBoostのために設計された公正性改善手法の厳密な理論的支援を提供するFABに対して理論的に導かれる。
提案手法の有効性は, 3つの実世界のデータセット(成人, コンパス, およびhsls)で実証された。
結果は理論分析と一致し、そのことを示す。
(i)FABはAdaBoostと比較して少ない精度で分類公正性を著しく改善し、
(II)FABは、等化オッズ法、指数勾配法、異種誤処理法を含む最先端の公正分類法を公平かつ正確なトレードオフの観点から上回る。
関連論文リスト
- Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。