論文の概要: Men Also Do Laundry: Multi-Attribute Bias Amplification
- arxiv url: http://arxiv.org/abs/2210.11924v1
- Date: Fri, 21 Oct 2022 12:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 13:23:40.730535
- Title: Men Also Do Laundry: Multi-Attribute Bias Amplification
- Title(参考訳): 男性は洗濯もする:マルチ属性バイアス増幅
- Authors: Dora Zhao, Jerone T.A. Andrews, Alice Xiang
- Abstract要約: コンピュータビジョンシステムは再生だけでなく、有害な社会的バイアスを増幅している。
マルチ属性バイアス増幅という新しい指標を提案する。
提案手法は,COCOおよびImsituデータセットにおける性別バイアス増幅の分析を通じて検証する。
- 参考スコア(独自算出の注目度): 2.492300648514129
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: As computer vision systems become more widely deployed, there is increasing
concern from both the research community and the public that these systems are
not only reproducing but amplifying harmful social biases. The phenomenon of
bias amplification, which is the focus of this work, refers to models
amplifying inherent training set biases at test time. Existing metrics measure
bias amplification with respect to single annotated attributes (e.g.,
$\texttt{computer}$). However, several visual datasets consist of images with
multiple attribute annotations. We show models can learn to exploit
correlations with respect to multiple attributes (e.g., {$\texttt{computer}$,
$\texttt{keyboard}$}), which are not accounted for by current metrics. In
addition, we show current metrics can give the erroneous impression that
minimal or no bias amplification has occurred as they involve aggregating over
positive and negative values. Further, these metrics lack a clear desired
value, making them difficult to interpret. To address these shortcomings, we
propose a new metric: Multi-Attribute Bias Amplification. We validate our
proposed metric through an analysis of gender bias amplification on the COCO
and imSitu datasets. Finally, we benchmark bias mitigation methods using our
proposed metric, suggesting possible avenues for future bias mitigation
- Abstract(参考訳): コンピュータビジョンシステムがより広く展開されるにつれて、研究コミュニティと一般の双方から、これらのシステムは再生だけでなく、有害な社会的バイアスを増幅しているという懸念が高まっている。
この研究の焦点であるバイアス増幅の現象は、テスト時に固有のトレーニングセットのバイアスを増幅するモデルを指す。
既存のメトリクスは、単一のアノテート属性(例えば$\texttt{ computer}$)に対するバイアス増幅を測定する。
しかし、いくつかのビジュアルデータセットは複数の属性アノテーションを持つイメージで構成されている。
モデルが複数の属性(例えば {$\texttt{computer}$, $\texttt{keyboard}$})に対する相関を活用できることを示す。
さらに,現在の指標は,正の値と負の値の集約を伴うバイアス増幅が最小あるいは全く発生していないという誤った印象を与える。
さらに、これらのメトリクスには明確な望ましい価値がなく、解釈が難しい。
これらの欠点に対処するため,我々はマルチ属性バイアス増幅という新しい指標を提案する。
提案手法は,COCOおよびImsituデータセットにおける性別バイアス増幅の分析を通じて検証する。
最後に,提案手法を用いたバイアス緩和手法のベンチマークを行い,将来のバイアス軽減への道筋を示唆する。
関連論文リスト
- Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Metrics for Dataset Demographic Bias: A Case Study on Facial Expression Recognition [4.336779198334903]
人口統計バイアスの最も顕著な種類は、データセットにおける人口統計群の表現における統計的不均衡である。
我々はこれらの指標を分類するための分類法を開発し、適切な指標を選択するための実践的なガイドを提供する。
この論文は、データセットバイアスを緩和し、AIモデルの公正性と正確性を改善するために、AIと関連する分野の研究者に貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-28T11:04:18Z) - Look Beyond Bias with Entropic Adversarial Data Augmentation [4.893694715581673]
ディープニューラルネットワークは、スパイラルパターンと因果パターンを区別せず、他を無視しながら最も予測的なパターンのみを学ぶ。
ネットワークをこのような刺激的なバイアスに頑健にするためにデバイアス法が開発されたが、データセットがバイアスを受けているかどうかを事前に知る必要がある。
本稿では,「隠された」因果情報がバイアス画像に含まれる場合が多いため,このようなサンプルは必ずしも必要ではない,と論じる。
論文 参考訳(メタデータ) (2023-01-10T08:25:24Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Few-shot Instruction Prompts for Pretrained Language Models to Detect
Social Biases [55.45617404586874]
我々は、事前訓練された言語モデル(LM)を誘導する数ショットの命令ベース手法を提案する。
大規模なLMは、微調整モデルとよく似た精度で、異なる種類の細粒度バイアスを検出できることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:19:52Z) - Measure Twice, Cut Once: Quantifying Bias and Fairness in Deep Neural
Networks [7.763173131630868]
本稿では,2つのモデルのクラスワイドバイアスを定量的に評価する2つの指標を提案する。
これらの新しいメトリクスのパフォーマンスを評価し、その実践的応用を実証することにより、公平性だけでなくバイアスも測定できることを示す。
論文 参考訳(メタデータ) (2021-10-08T22:35:34Z) - Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization [93.8373619657239]
SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
論文 参考訳(メタデータ) (2021-05-12T12:12:24Z) - Directional Bias Amplification [21.482317675176443]
バイアス増幅(bias amplification)は、モデルがトレーニングしたデータに存在するバイアスを増幅する傾向である。
バイアス増幅を測定するためのメトリックは、Zhao et alによるセミナル作品に導入されました。
バイアス増幅測定のための新しい分離指標である$textbiasamp_rightarrow$(方向バイアス増幅)を紹介し分析する。
論文 参考訳(メタデータ) (2021-02-24T22:54:21Z) - Mitigating Gender Bias Amplification in Distribution by Posterior
Regularization [75.3529537096899]
本稿では,男女差の増幅問題について,分布の観点から検討する。
後続正則化に基づくバイアス緩和手法を提案する。
私たちの研究はバイアス増幅の理解に光を当てている。
論文 参考訳(メタデータ) (2020-05-13T11:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。