論文の概要: Accurate Fairness: Improving Individual Fairness without Trading
Accuracy
- arxiv url: http://arxiv.org/abs/2205.08704v1
- Date: Wed, 18 May 2022 03:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 14:06:22.980050
- Title: Accurate Fairness: Improving Individual Fairness without Trading
Accuracy
- Title(参考訳): 正確なフェアネス:取引精度のない個人のフェアネスを改善する
- Authors: Xuran Li, Peng Wu, Jing Su
- Abstract要約: 本研究では,保護された属性に関わらず,個人が正確かつ公平に扱われているか否かを評価するために,新しい公正基準,正確な公正性を提案する。
次に、正確な公正トレーニングのための公平なシームズアプローチを示す。
典型的なフェアネスベンチマークを用いたケーススタディでは、我々のフェアシームのアプローチは平均して17.4%の個人フェアネス、11.5%のフェアF1スコア、および4.7%の機械学習モデルの精度を向上できることが示された。
- 参考スコア(独自算出の注目度): 4.0415037006237595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accuracy and fairness are both crucial aspects for trustworthy machine
learning. However, in practice, enhancing one aspect may sacrifice the other
inevitably. We propose in this paper a new fairness criterion, accurate
fairness, to assess whether an individual is treated both accurately and fairly
regardless of protected attributes. We further propose new fairness metrics,
fair-precision, fair-recall and fair-F1 score, to evaluate the reliability of a
machine learning model from the perspective of accurate fairness. Thus, the
side effects of enhancing just one of the two aspects, i.e., true bias and
false fairness, can be effectively identified with our criterion. We then
present a fair Siamese approach for accurate fairness training. To the best of
our knowledge, this is the first time that a Siamese approach is adapted for
bias mitigation. Case studies with typical fairness benchmarks demonstrate that
our fair Siamese approach can, on average, promote the 17.4% higher individual
fairness, the 11.5% higher fair-F1 score, and the 4.7% higher accuracy of a
machine learning model than the state-of-the-art bias mitigation techniques.
Finally, our approach is applied to mitigate the possible service
discrimination with a real Ctrip dataset, by fairly serving on average 97.9%
customers with different consumption habits who pay the same prices for the
same rooms (20.7% more than original models).
- Abstract(参考訳): 正確さと公正さは、信頼できる機械学習にとって重要な側面である。
しかし実際には、ある側面の強化は、必然的に他方を犠牲にする可能性がある。
本稿では,保護属性に関わらず,個人が正確かつ公平に扱われているかどうかを評価するために,新しい公正基準,正確な公正性を提案する。
さらに, 公平性の観点から機械学習モデルの信頼性を評価するために, 公正度指標, 公正度指標, フェアリコールスコア, フェアリコールスコア, およびfair-f1スコアを提案する。
したがって、真の偏見と偽公正という2つの側面のうちの1つだけを強化する副作用は、我々の基準と効果的に同一視できる。
次に、正確な公正トレーニングのための公平なシームズアプローチを示す。
私たちの知る限りでは、シャムのアプローチがバイアス緩和に適応するのはこれが初めてです。
典型的なフェアネスベンチマークを用いたケーススタディでは、我々のフェアシームのアプローチは平均して17.4%の個人フェアネス、11.5%のフェアF1スコア、そして4.7%の機械学習モデルの精度を最先端のバイアス緩和技術よりも向上させることができる。
最後に、当社のアプローチを適用して、実際のCtripデータセットによるサービスの差別を軽減し、同室で同じ価格(オリジナルモデルより20.7%高い)の異なる消費習慣を持つ平均97.9%の顧客にサービスを提供しています。
関連論文リスト
- BadFair: Backdoored Fairness Attacks with Group-conditioned Triggers [11.406478357477292]
BadFairは、バックドア型フェアネスアタック手法である。
BadFairは、通常の条件下で正確さと公正さで動作するモデルをステルス的に作り出すが、特定のトリガーによって起動されると、特定のグループに対して誤った結果を生成して生成する。
以上の結果から,BadFairは標的グループを標的とした攻撃で85%以上の攻撃成功率を達成したが,精度の低下は最小限であった。
論文 参考訳(メタデータ) (2024-10-23T01:14:54Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。