論文の概要: Toward responsible face datasets: modeling the distribution of a
disentangled latent space for sampling face images from demographic groups
- arxiv url: http://arxiv.org/abs/2309.08442v1
- Date: Fri, 15 Sep 2023 14:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:24:24.194243
- Title: Toward responsible face datasets: modeling the distribution of a
disentangled latent space for sampling face images from demographic groups
- Title(参考訳): 責任ある顔データセットに向けて : 集団から顔画像をサンプリングするための不連続潜在空間の分布のモデル化
- Authors: Parsa Rahimi, Christophe Ecabert, Sebastien Marcel
- Abstract要約: 近年、一部の現代の顔認識システムが特定の人口集団を識別できることが明らかにされている。
そこで我々は,StyleGANラテント空間の非交叉射影をモデル化し,サンプリングするための簡単な手法を提案する。
実験の結果、人口集団の組み合わせを効果的に合成できることが示され、同一性は元のトレーニングデータセットと異なることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, it has been exposed that some modern facial recognition systems
could discriminate specific demographic groups and may lead to unfair attention
with respect to various facial attributes such as gender and origin. The main
reason are the biases inside datasets, unbalanced demographics, used to train
theses models. Unfortunately, collecting a large-scale balanced dataset with
respect to various demographics is impracticable.
In this paper, we investigate as an alternative the generation of a balanced
and possibly bias-free synthetic dataset that could be used to train, to
regularize or to evaluate deep learning-based facial recognition models. We
propose to use a simple method for modeling and sampling a disentangled
projection of a StyleGAN latent space to generate any combination of
demographic groups (e.g. $hispanic-female$). Our experiments show that we can
synthesis any combination of demographic groups effectively and the identities
are different from the original training dataset. We also released the source
code.
- Abstract(参考訳): 近年、一部の現代の顔認識システムが特定の集団を識別し、性別や起源といった様々な顔特性に対して不公平な注意を向ける可能性があることが明らかになっている。
主な理由は、データセット内のバイアス、不均衡な人口層、これらモデルをトレーニングするために使用される。
残念ながら、様々な人口統計に関する大規模なバランスのとれたデータセットの収集は不可能である。
本稿では,ディープラーニングに基づく顔認識モデルの訓練,正規化,評価に使用可能な,バランスの取れた,バイアスのない合成データセットの生成の代替として検討する。
本研究では,スタイルガン潜在空間の不連続投影のモデル化とサンプリングに簡便な手法を用いて,人口構成群の組み合わせ(例えば$hispanic-female$)を生成する。
実験の結果, 集団群の組み合わせを効果的に合成でき, 同一性はトレーニングデータセットと異なることがわかった。
ソースコードもリリースしました。
関連論文リスト
- Random Silicon Sampling: Simulating Human Sub-Population Opinion Using a
Large Language Model Based on Group-Level Demographic Information [15.435605802794408]
大規模言語モデルは、人口統計情報に関連する社会的バイアスを示す。
人口サブグループの意見をエミュレートする「ランダムシリコンサンプリング」を提案する。
言語モデルは、実際のアメリカの世論調査と非常によく似た応答分布を生成できる。
論文 参考訳(メタデータ) (2024-02-28T08:09:14Z) - Synthetic Data for the Mitigation of Demographic Biases in Face
Recognition [10.16490522214987]
本研究では, 顔認識技術に影響を及ぼす人口統計バイアスを, 合成データを用いて緩和する可能性について検討した。
GANDiffFaceによって生成された合成データセットは、制御可能な人口分布と現実的なクラス内変動を用いて、顔認識のためのデータセットを合成できる新しいフレームワークである。
本研究は、顔認識における人口統計バイアスを軽減するために、提案手法と合成データの利用を支持する。
論文 参考訳(メタデータ) (2024-02-02T14:57:42Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Bias and Diversity in Synthetic-based Face Recognition [12.408456748469426]
合成顔認証データセットの多様性が、真正なデータセットとどのように比較されるかを検討する。
性別、民族、年齢、地位の分布に注目します。
バイアスに関しては、合成ベースモデルが真ベースモデルと類似したバイアス挙動を持っていることが分かる。
論文 参考訳(メタデータ) (2023-11-07T13:12:34Z) - Zero-shot racially balanced dataset generation using an existing biased
StyleGAN2 [5.463417677777276]
本稿では, 偏りのある生成モデルであるStyleGAN2を用いて, 人口統計学的に多様な合成個体の画像を作成する手法を提案する。
1レースあたり50,000のIDを含むバランスの取れたデータセットで顔認識モデルをトレーニングすることで、パフォーマンスを改善し、実際のデータセットでトレーニングされたモデルに存在した可能性のあるバイアスを最小限にすることができる。
論文 参考訳(メタデータ) (2023-05-12T18:07:10Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。