論文の概要: Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning
- arxiv url: http://arxiv.org/abs/2006.12621v4
- Date: Thu, 21 Jan 2021 13:18:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 21:29:34.229847
- Title: Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning
- Title(参考訳): ロバスト性による公平性:深層学習におけるロバスト性格差の検討
- Authors: Vedant Nanda and Samuel Dooley and Sahil Singla and Soheil Feizi and
John P. Dickerson
- Abstract要約: 我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
- 参考スコア(独自算出の注目度): 61.93730166203915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are increasingly used in real-world applications
(e.g. facial recognition). This has resulted in concerns about the fairness of
decisions made by these models. Various notions and measures of fairness have
been proposed to ensure that a decision-making system does not
disproportionately harm (or benefit) particular subgroups of the population. In
this paper, we argue that traditional notions of fairness that are only based
on models' outputs are not sufficient when the model is vulnerable to
adversarial attacks. We argue that in some cases, it may be easier for an
attacker to target a particular subgroup, resulting in a form of
\textit{robustness bias}. We show that measuring robustness bias is a
challenging task for DNNs and propose two methods to measure this form of bias.
We then conduct an empirical study on state-of-the-art neural networks on
commonly used real-world datasets such as CIFAR-10, CIFAR-100, Adience, and
UTKFace and show that in almost all cases there are subgroups (in some cases
based on sensitive attributes like race, gender, etc) which are less robust and
are thus at a disadvantage. We argue that this kind of bias arises due to both
the data distribution and the highly complex nature of the learned decision
boundary in the case of DNNs, thus making mitigation of such biases a
non-trivial task. Our results show that robustness bias is an important
criterion to consider while auditing real-world systems that rely on DNNs for
decision making. Code to reproduce all our results can be found here:
\url{https://github.com/nvedant07/Fairness-Through-Robustness}
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、現実世界のアプリケーション(例えば顔認識)でますます使われている。
これにより、これらのモデルによる決定の公平性に関する懸念が生じている。
意思決定システムが集団の特定のサブグループに不当に害(または利益)を及ぼさないよう、公平性の様々な概念と尺度が提案されている。
本稿では,モデルが敵攻撃に対して脆弱である場合,モデル出力のみに基づく従来の公平性の概念は不十分である,と論じる。
いくつかのケースでは、攻撃者が特定のサブグループをターゲットにするのは容易であり、結果として \textit{robustness bias} という形式になるかもしれない。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
次に,cifar-10,cifar-100,adience,utkfaceなど,一般的に使用されている実世界のデータセット上で,最先端のニューラルネットワークに関する実証研究を行い,ほぼすべてのケースにおいて,ロバストが低く不利なサブグループ(人種や性別などの繊細な属性に基づく場合もある)が存在することを示した。
このようなバイアスは、dnnの場合のデータ分布と学習された決定境界の非常に複雑な性質の両方によって生じるため、バイアスの軽減は非自明なタスクであると主張する。
その結果,意思決定にdnnに依存する実世界のシステムを監査する上で,堅牢性バイアスは考慮すべき重要な基準であることがわかった。
すべての結果を再現するコードは以下の通りである。 \url{https://github.com/nvedant07/Fairness-Through-Robustness}
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - FAIRER: Fairness as Decision Rationale Alignment [23.098752318439782]
ディープニューラルネットワーク(DNN)は大きな進歩を遂げているが、フェアネスの問題に悩まされることが多い。
トレーニングされたネットワークがどのように公正な予測を行い、将来の公正性を改善するのかは不明だ。
本稿では, 勾配誘導パリティアライメントを提案し, サブグループ間のニューロンの勾配重み付けを促進させる。
論文 参考訳(メタデータ) (2023-06-27T08:37:57Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Simon Says: Evaluating and Mitigating Bias in Pruned Neural Networks
with Knowledge Distillation [8.238238958749134]
プルーニングニューラルネットワークの評価と緩和に関する現在の文献には明確なギャップがある。
本稿では,CEV(Combined Error Variance)とSDE(Symmetric Distance Error)の2つの簡易かつ効果的な指標を提案する。
第二に、知識蒸留は、不均衡なデータセットであっても、刈り取られたニューラルネットワークにおける誘導バイアスを軽減することができることを実証する。
第3に、モデル類似性はプルーニング誘起バイアスと強い相関関係があることを明らかにし、なぜプルーニングニューラルネットワークでバイアスが発生するのかを説明する強力な方法を提供する。
論文 参考訳(メタデータ) (2021-06-15T02:59:32Z) - How benign is benign overfitting? [96.07549886487526]
深層ニューラルネットワークにおける敵対的脆弱性の2つの原因について検討する。
ディープニューラルネットワークは基本的にラベルノイズがある場合でも、トレーニングエラーをゼロにする。
我々は、ラベルノイズを敵対的脆弱性の原因の1つとみなしている。
論文 参考訳(メタデータ) (2020-07-08T11:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。