論文の概要: Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models
- arxiv url: http://arxiv.org/abs/2108.06581v1
- Date: Sat, 14 Aug 2021 16:49:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:13:29.269244
- Title: Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models
- Title(参考訳): 事前学習された顔認識モデルの偏り予測に対する画像歪みの影響の解明
- Authors: Puspita Majumdar, Surbhi Mittal, Richa Singh, Mayank Vatsa
- Abstract要約: 画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
- 参考スコア(独自算出の注目度): 86.79402670904338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying and mitigating bias in deep learning algorithms has gained
significant popularity in the past few years due to its impact on the society.
Researchers argue that models trained on balanced datasets with good
representation provide equal and unbiased performance across subgroups.
However, \textit{can seemingly unbiased pre-trained model become biased when
input data undergoes certain distortions?} For the first time, we attempt to
answer this question in the context of face recognition. We provide a
systematic analysis to evaluate the performance of four state-of-the-art deep
face recognition models in the presence of image distortions across different
\textit{gender} and \textit{race} subgroups. We have observed that image
distortions have a relationship with the performance gap of the model across
different subgroups.
- Abstract(参考訳): ディープラーニングアルゴリズムにおけるバイアスの特定と軽減は、社会への影響によって、ここ数年で大きな人気を集めている。
バランスのとれたデータセットでトレーニングされたモデルは、サブグループ間で同等で偏りのないパフォーマンスを提供する、と研究者は主張する。
しかし、\textit{can looks unbiased pre-trained model are biased when input data unders certain distortions?
私たちは初めて、顔認識という文脈でこの問題に答えようと試みました。
異なる \textit{gender} と \textit{race} 部分群にまたがる画像歪みの存在下での4つの最先端深層顔認識モデルの性能を評価するための系統的分析を行った。
画像の歪みは,各サブグループ間のモデルの性能ギャップと関係していることがわかった。
関連論文リスト
- Dataset Scale and Societal Consistency Mediate Facial Impression Bias in Vision-Language AI [17.101569078791492]
43のCLIP視覚言語モデルを用いて、人間の顔の印象バイアスを学習するかどうかを検証した。
社会全体でバイアスが共有される度合いがCLIPモデルに反映される度合いを予測するのはこれが初めてである。
論文 参考訳(メタデータ) (2024-08-04T08:26:58Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Fair SA: Sensitivity Analysis for Fairness in Face Recognition [1.7149364927872013]
汎用フレームワークの形で頑健性に基づく新しい公正性評価を提案する。
我々は、一般的な顔認識モデルの性能を分析し、画像が摂動状態にある場合、ある種のサブグループが不利であることを実証的に示す。
論文 参考訳(メタデータ) (2022-02-08T01:16:09Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Understanding Gender and Racial Disparities in Image Recognition Models [0.0]
クロスエントロピーを用いたマルチラベルソフトマックスの損失を,多ラベル分類問題における二進的クロスエントロピーの代わりに損失関数として検討する。
MR2データセットを用いて、モデル結果の公平性を評価し、モデルのアクティベーションを見て誤りを解釈し、可能な修正を提案する。
論文 参考訳(メタデータ) (2021-07-20T01:05:31Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。