論文の概要: Accurate Fairness: Improving Individual Fairness without Trading
Accuracy
- arxiv url: http://arxiv.org/abs/2205.08704v2
- Date: Wed, 30 Nov 2022 14:10:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:00:59.710745
- Title: Accurate Fairness: Improving Individual Fairness without Trading
Accuracy
- Title(参考訳): 正確なフェアネス:取引精度のない個人のフェアネスを改善する
- Authors: Xuran Li, Peng Wu, Jing Su
- Abstract要約: 本研究では,個別の公正度を精度に合わせるために,新しい公正度基準,正確な公正度を提案する。
正確な公正性はまた、類似のサブ集団の合併に対する典型的な群フェアネス基準をも意味している。
私たちの知る限りでは、シームズアプローチがバイアス軽減に適応するのはこれが初めてです。
- 参考スコア(独自算出の注目度): 4.0415037006237595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accuracy and individual fairness are both crucial for trustworthy machine
learning, but these two aspects are often incompatible with each other so that
enhancing one aspect may sacrifice the other inevitably with side effects of
true bias or false fairness. We propose in this paper a new fairness criterion,
accurate fairness, to align individual fairness with accuracy. Informally, it
requires the treatments of an individual and the individual's similar
counterparts to conform to a uniform target, i.e., the ground truth of the
individual. We prove that accurate fairness also implies typical group fairness
criteria over a union of similar sub-populations. We then present a Siamese
fairness in-processing approach to minimize the accuracy and fairness losses of
a machine learning model under the accurate fairness constraints. To the best
of our knowledge, this is the first time that a Siamese approach is adapted for
bias mitigation. We also propose fairness confusion matrix-based metrics,
fair-precision, fair-recall, and fair-F1 score, to quantify a trade-off between
accuracy and individual fairness. Comparative case studies with popular
fairness datasets show that our Siamese fairness approach can achieve on
average 1.02%-8.78% higher individual fairness (in terms of fairness through
awareness) and 8.38%-13.69% higher accuracy, as well as 10.09%-20.57% higher
true fair rate, and 5.43%-10.01% higher fair-F1 score, than the
state-of-the-art bias mitigation techniques. This demonstrates that our Siamese
fairness approach can indeed improve individual fairness without trading
accuracy. Finally, the accurate fairness criterion and Siamese fairness
approach are applied to mitigate the possible service discrimination with a
real Ctrip dataset, by on average fairly serving 112.33% more customers
(specifically, 81.29% more customers in an accurately fair way) than baseline
models.
- Abstract(参考訳): 正確さと個人の公正さはどちらも信頼できる機械学習にとって不可欠であるが、これら2つの側面は相容れないことが多く、一方の側面の強化は真の偏見や偽の公平さの副作用によって必然的に他方を犠牲にする可能性がある。
本稿では,個々人の公平さを正確さに合わせるために,新しい公平性基準,正確性を提案する。
非公式に、個人と類似した個人に対する治療は、統一された標的、すなわち個人の基礎的真実に適合するように要求される。
正確な公正性はまた、類似のサブ集団の合併に対する典型的な群フェアネス基準をも意味している。
次に,機械学習モデルの正確さと公平さの損失を最小限に抑えるために,siamese fairness in-processアプローチを提案する。
私たちの知る限りでは、シャムのアプローチがバイアス緩和に適応するのはこれが初めてです。
また, 精度と個々フェアネスのトレードオフを定量化するために, フェアネス混乱行列に基づく指標, フェア精度, フェアリコール, およびfair-f1スコアを提案する。
一般的なフェアネスデータセットとの比較では、我々のシームズフェアネスアプローチは、平均1.02%-8.78%、個人フェアネス8.38%-13.69%、真のフェアレート10.09%-20.57%、そして最先端バイアス緩和技術5.43%-10.01%で達成可能である。
これは、我々のシームズフェアネスアプローチが、取引精度を損なうことなく、個人フェアネスを確実に改善できることを示している。
最後に、正確な公正度基準とシームズフェアネスアプローチを適用して、ベースラインモデルよりも平均で112.33%多くの顧客(具体的には81.29%の顧客)にサービスを提供し、実際のCtripデータセットによるサービスの差別を緩和する。
関連論文リスト
- Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。