論文の概要: Bias and Diversity in Synthetic-based Face Recognition
- arxiv url: http://arxiv.org/abs/2311.03970v1
- Date: Tue, 7 Nov 2023 13:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 15:37:18.118788
- Title: Bias and Diversity in Synthetic-based Face Recognition
- Title(参考訳): 合成顔認証におけるバイアスと多様性
- Authors: Marco Huber, Anh Thi Luu, Fadi Boutros, Arjan Kuijper, Naser Damer
- Abstract要約: 合成顔認証データセットの多様性が、真正なデータセットとどのように比較されるかを検討する。
性別、民族、年齢、地位の分布に注目します。
バイアスに関しては、合成ベースモデルが真ベースモデルと類似したバイアス挙動を持っていることが分かる。
- 参考スコア(独自算出の注目度): 12.408456748469426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic data is emerging as a substitute for authentic data to solve
ethical and legal challenges in handling authentic face data. The current
models can create real-looking face images of people who do not exist. However,
it is a known and sensitive problem that face recognition systems are
susceptible to bias, i.e. performance differences between different demographic
and non-demographics attributes, which can lead to unfair decisions. In this
work, we investigate how the diversity of synthetic face recognition datasets
compares to authentic datasets, and how the distribution of the training data
of the generative models affects the distribution of the synthetic data. To do
this, we looked at the distribution of gender, ethnicity, age, and head
position. Furthermore, we investigated the concrete bias of three recent
synthetic-based face recognition models on the studied attributes in comparison
to a baseline model trained on authentic data. Our results show that the
generator generate a similar distribution as the used training data in terms of
the different attributes. With regard to bias, it can be seen that the
synthetic-based models share a similar bias behavior with the authentic-based
models. However, with the uncovered lower intra-identity attribute consistency
seems to be beneficial in reducing bias.
- Abstract(参考訳): 合成データは、顔データを扱う際の倫理的および法的課題を解決するために、認証データの代用として出現している。
現在のモデルは、存在しない人のリアルな顔画像を作ることができる。
しかし、顔認識システムがバイアス、すなわち異なる人口統計学的属性と非人口統計学的属性のパフォーマンスの違いに影響を受けやすく、不公平な決定に繋がる可能性があることは知られ、敏感な問題である。
本研究では,合成顔認識データセットの多様性が真のデータセットとどのように比較されるか,および生成モデルのトレーニングデータの分布が合成データの分布に与える影響について検討する。
そのために,性別,民族,年齢,頭部位置の分布を検討した。
さらに,近年の3つの合成型顔認識モデルの具体的バイアスについて,実データに基づくベースラインモデルと比較して検討した。
その結果, 発電機は, 使用するトレーニングデータと同様の分布を異なる属性で生成することがわかった。
バイアスに関しては、合成ベースモデルが真ベースモデルと類似したバイアス挙動を持っていることが分かる。
しかし, アイデンティティ内属性の整合性を明らかにすることにより, バイアスの低減に有効と考えられる。
関連論文リスト
- Synthetic Data for the Mitigation of Demographic Biases in Face
Recognition [10.16490522214987]
本研究では, 顔認識技術に影響を及ぼす人口統計バイアスを, 合成データを用いて緩和する可能性について検討した。
GANDiffFaceによって生成された合成データセットは、制御可能な人口分布と現実的なクラス内変動を用いて、顔認識のためのデータセットを合成できる新しいフレームワークである。
本研究は、顔認識における人口統計バイアスを軽減するために、提案手法と合成データの利用を支持する。
論文 参考訳(メタデータ) (2024-02-02T14:57:42Z) - Toward responsible face datasets: modeling the distribution of a
disentangled latent space for sampling face images from demographic groups [0.0]
近年、一部の現代の顔認識システムが特定の人口集団を識別できることが明らかにされている。
そこで我々は,StyleGANラテント空間の非交叉射影をモデル化し,サンプリングするための簡単な手法を提案する。
実験の結果、人口集団の組み合わせを効果的に合成できることが示され、同一性は元のトレーニングデータセットと異なることがわかった。
論文 参考訳(メタデータ) (2023-09-15T14:42:04Z) - Benchmarking Algorithmic Bias in Face Recognition: An Experimental
Approach Using Synthetic Faces and Human Evaluation [24.35436087740559]
顔認識システムにおけるバイアスを測定する実験手法を提案する。
本手法は,ニューラルフェイスジェネレータを用いて合成顔を生成する。
我々は3つの研究グレードの顔認識モデルの人種と性別の偏りを定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T08:57:31Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Transitioning from Real to Synthetic data: Quantifying the bias in model [1.6134566438137665]
本研究では,合成データを用いたモデルにおけるバイアスと公平性のトレードオフを確立することを目的とする。
合成データを用いて訓練したモデルには、様々なレベルのバイアスの影響があることを実証する。
論文 参考訳(メタデータ) (2021-05-10T06:57:14Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Investigating Bias and Fairness in Facial Expression Recognition [15.45073173331206]
表情認識におけるバイアスと公平性の3つのアプローチを比較した。
データ拡張はベースラインモデルの精度を向上させるが、このだけでバイアス効果を軽減することはできない。
歪んだアプローチは、人口統計バイアスを軽減するのに最適です。
論文 参考訳(メタデータ) (2020-07-20T13:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。