論文の概要: Fair Tree Learning
- arxiv url: http://arxiv.org/abs/2110.09295v1
- Date: Mon, 18 Oct 2021 13:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 19:30:37.927115
- Title: Fair Tree Learning
- Title(参考訳): フェアツリー学習
- Authors: Ant\'onio Pereira Barata, Cor J. Veenman
- Abstract要約: 様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
- 参考スコア(独自算出の注目度): 0.15229257192293202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When dealing with sensitive data in automated data-driven decision-making, an
important concern is to learn predictors with high performance towards a class
label, whilst minimising for the discrimination towards some sensitive
attribute, like gender or race, induced from biased data. Various hybrid
optimisation criteria exist which combine classification performance with a
fairness metric. However, while the threshold-free ROC-AUC is the standard for
measuring traditional classification model performance, current fair decision
tree methods only optimise for a fixed threshold on both the classification
task as well as the fairness metric. Moreover, current tree learning frameworks
do not allow for fair treatment with respect to multiple categories or multiple
sensitive attributes. Lastly, the end-users of a fair model should be able to
balance fairness and classification performance according to their specific
ethical, legal, and societal needs. In this paper we address these shortcomings
by proposing a threshold-independent fairness metric termed uniform demographic
parity, and a derived splitting criterion entitled SCAFF -- Splitting Criterion
AUC for Fairness -- towards fair decision tree learning, which extends to
bagged and boosted frameworks. Compared to the state-of-the-art, our method
provides three main advantages: (1) classifier performance and fairness are
defined continuously instead of relying upon an, often arbitrary, decision
threshold; (2) it leverages multiple sensitive attributes simultaneously, of
which the values may be multicategorical; and (3) the unavoidable
performance-fairness trade-off is tunable during learning. In our experiments,
we demonstrate how SCAFF attains high predictive performance towards the class
label and low discrimination with respect to binary, multicategorical, and
multiple sensitive attributes, further substantiating our claims.
- Abstract(参考訳): 自動データ駆動意思決定におけるセンシティブなデータを扱う場合、重要な関心事は、偏りのあるデータから生じる性別や人種などのセンシティブな属性に対する識別を最小限に抑えながら、クラスラベルに対して高いパフォーマンスの予測器を学習することである。
分類性能と公正度を組み合わせた様々なハイブリッド最適化基準が存在する。
しかしながら、従来の分類モデルの性能測定の標準はROC-AUCであるが、現在の公正決定木法は、分類タスクと公平度測定の両方で一定の閾値を最適化するのみである。
さらに、現在のツリー学習フレームワークでは、複数のカテゴリや複数の機密属性に関して公平な扱いができない。
最後に、公正モデルのエンドユーザーは、特定の倫理的、法的、社会的ニーズに応じて公正さと分類性能のバランスをとることができるべきである。
本稿では,一様人口的平等というしきい値非依存の公平度尺度と,SCAFF - Splitting Criterion AUC for Fairness(公正のための分割基準AUC)と題する分割基準を,タグ付きおよび強化されたフレームワークに拡張した公正決定木学習に向けて提案することで,これらの欠点に対処する。
1) 分類器の性能と公平性は, しばしば任意に決定しきい値に依存するのではなく, 連続的に定義され, (2) 複数の機密属性を同時に活用し, その値が多カテゴリー化されうること, (3) 学習中, 避けられない性能・フェアネストレードオフが調整可能であること, の3つの利点がある。
実験では,SCAFFがクラスラベルに対して高い予測性能を達成し,二項・多分類・複数機密属性に対する低識別性を実証し,さらにその主張を裏付ける。
関連論文リスト
- Uncertainty-Aware Fairness-Adaptive Classification Trees [0.0]
本稿では,木構築プロセスに公平性調整を組み込んだ新しい分割基準を用いた新しい分類木アルゴリズムを提案する。
本手法は,従来の分類木に比べて識別予測を効果的に削減し,全体的な精度を損なわないことを示す。
論文 参考訳(メタデータ) (2024-10-08T08:42:12Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。