論文の概要: RobustFair: Adversarial Evaluation through Fairness Confusion Directed
Gradient Search
- arxiv url: http://arxiv.org/abs/2305.10906v2
- Date: Sun, 8 Oct 2023 08:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 12:47:01.189100
- Title: RobustFair: Adversarial Evaluation through Fairness Confusion Directed
Gradient Search
- Title(参考訳): robustfair:fairness confusion directedgradient searchによる敵対的評価
- Authors: Xuran Li, Peng Wu, Kaixiang Dong, Zhen Zhang, Yanting Chen
- Abstract要約: ディープニューラルネットワーク(DNN)は、様々な敵の摂動に対する脆弱性のため、しばしば課題に直面している。
本稿では, 偽りや偏りのある摂動を受ける場合のDNNの正確な公平性を評価するための新しいアプローチであるRobustFairを紹介する。
- 参考スコア(独自算出の注目度): 8.278129731168127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) often face challenges due to their vulnerability
to various adversarial perturbations, including false perturbations that
undermine prediction accuracy and biased perturbations that cause biased
predictions for similar inputs. This paper introduces a novel approach,
RobustFair, to evaluate the accurate fairness of DNNs when subjected to these
false or biased perturbations. RobustFair employs the notion of the fairness
confusion matrix induced in accurate fairness to identify the crucial input
features for perturbations. This matrix categorizes predictions as true fair,
true biased, false fair, and false biased, and the perturbations guided by it
can produce a dual impact on instances and their similar counterparts to either
undermine prediction accuracy (robustness) or cause biased predictions
(individual fairness). RobustFair then infers the ground truth of these
generated adversarial instances based on their loss function values
approximated by the total derivative. To leverage the generated instances for
trustworthiness improvement, RobustFair further proposes a data augmentation
strategy to prioritize adversarial instances resembling the original training
set, for data augmentation and model retraining. Notably, RobustFair excels at
detecting intertwined issues of robustness and individual fairness, which are
frequently overlooked in standard robustness and individual fairness
evaluations. This capability empowers RobustFair to enhance both robustness and
individual fairness evaluations by concurrently identifying defects in either
domain. Empirical case studies and quantile regression analyses on benchmark
datasets demonstrate the effectiveness of the fairness confusion matrix guided
perturbation for false or biased adversarial instance generation.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、予測精度を損なう偽の摂動や、同様の入力に対するバイアス付き予測を引き起こすバイアス付き摂動など、様々な敵の摂動に対する脆弱性のために、しばしば課題に直面している。
本稿では,これら偽りあるいは偏りの摂動を受ける場合のDNNの正確な公平性を評価するための新しいアプローチであるRobustFairを紹介する。
RobustFair は、摂動の重要な入力特徴を特定するために、正確な公正性によって誘導される公正混乱行列の概念を用いる。
この行列は、予測を真の公正、真のバイアス、偽の公正、偽のバイアスと分類し、それによって導かれる摂動は、インスタンスとその類似のものとの2つの影響を生じさせ、予測の正確さ(乱れ)を弱めるか、偏った予測(個別の公正)を引き起こす。
ロバストフェアは、全微分によって近似された損失関数値に基づいて、これらの生成した逆数インスタンスの基底真理を推論する。
信頼度向上のために生成されたインスタンスを活用するため、ロバストフェアはさらに、データ拡張とモデル再トレーニングのために、元のトレーニングセットに似た敵インスタンスを優先するデータ拡張戦略を提案する。
特にRobustFairは、標準の頑健さや個別の公正さ評価でしばしば見落とされがちな、頑健さと個別の公正さの絡み合った問題を検出することに長けている。
この機能はRobustFairに、どちらのドメインの欠陥も同時に識別することで、ロバストネスと個別の公平性評価の両方を強化する権限を与える。
ベンチマークデータセットにおける実証的ケーススタディと量子レグレッション分析は、偽または偏りの対向インスタンス生成に対するフェアネス混乱行列誘導摂動の有効性を実証する。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - The Double-Edged Sword of Input Perturbations to Robust Accurate Fairness [23.927644024788563]
ディープニューラルネットワーク(DNN)は、逆入力摂動に敏感であることが知られている。
形式的に、堅牢な正確な公正性は、入力摂動を受ける場合、インスタンスの予測が基底真理と一貫して一致することを要求する。
本研究は, 慎重に設計した良性摂動により, このような対向インスタンスを効果的に扱うことができることを示す。
論文 参考訳(メタデータ) (2024-04-01T09:29:16Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Increasing Fairness in Predictions Using Bias Parity Score Based Loss
Function Regularization [0.8594140167290099]
従来のバイナリクロスエントロピーに基づく精度損失と合わせて使用する正則化成分の公平性向上のファミリを導入する。
我々は、人口統計に基づく成人所得データセットと同様に、再分配予測タスクの文脈に展開する。
論文 参考訳(メタデータ) (2021-11-05T17:42:33Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。