論文の概要: Are Face Detection Models Biased?
- arxiv url: http://arxiv.org/abs/2211.03588v1
- Date: Mon, 7 Nov 2022 14:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 17:40:42.256978
- Title: Are Face Detection Models Biased?
- Title(参考訳): 顔検出モデルはバイアスか?
- Authors: Surbhi Mittal, Kartik Thakral, Puspita Majumdar, Mayank Vatsa, Richa
Singh
- Abstract要約: 顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
- 参考スコア(独自算出の注目度): 69.68854430664399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The presence of bias in deep models leads to unfair outcomes for certain
demographic subgroups. Research in bias focuses primarily on facial recognition
and attribute prediction with scarce emphasis on face detection. Existing
studies consider face detection as binary classification into 'face' and
'non-face' classes. In this work, we investigate possible bias in the domain of
face detection through facial region localization which is currently
unexplored. Since facial region localization is an essential task for all face
recognition pipelines, it is imperative to analyze the presence of such bias in
popular deep models. Most existing face detection datasets lack suitable
annotation for such analysis. Therefore, we web-curate the Fair Face
Localization with Attributes (F2LA) dataset and manually annotate more than 10
attributes per face, including facial localization information. Utilizing the
extensive annotations from F2LA, an experimental setup is designed to study the
performance of four pre-trained face detectors. We observe (i) a high disparity
in detection accuracies across gender and skin-tone, and (ii) interplay of
confounding factors beyond demography. The F2LA data and associated annotations
can be accessed at http://iab-rubric.org/index.php/F2LA.
- Abstract(参考訳): 深層モデルにおけるバイアスの存在は、特定の集団サブグループに対して不公平な結果をもたらす。
偏見の研究は主に顔認識と属性予測に焦点を当て、顔検出に重点を置いている。
既存の研究では、顔検出は「顔」クラスと「非顔」クラスに分けられている。
本研究では,現在探索されていない顔領域の局所化による顔検出領域のバイアスについて検討する。
顔領域のローカライゼーションは、すべての顔認識パイプラインにとって必須のタスクであるため、一般的な深層モデルにおけるそのようなバイアスの存在を分析することが不可欠である。
既存の顔検出データセットの多くは、そのような分析に適切なアノテーションを欠いている。
したがって、Fair Face Localization with Attributes (F2LA) データセットをウェブキュレートし、顔のローカライゼーション情報を含む10以上の属性を手動でアノテートする。
F2LAからの広範なアノテーションを利用して、4つの事前訓練された顔検出器の性能を調べる実験装置が設計されている。
観察します
(i)性別および肌色における検出精度の差が高いこと、及び
(ii)デモグラフィ以外の複合因子の相互作用
F2LAのデータとアノテーションはhttp://iab-rubric.org/index.php/F2LAでアクセスできる。
関連論文リスト
- FineFACE: Fair Facial Attribute Classification Leveraging Fine-grained Features [3.9440964696313485]
自動的な顔属性分類アルゴリズムでは、人口統計バイアスの存在が強調されている。
既存のバイアス緩和技術は、一般に人口統計学的なアノテーションを必要とし、しばしば公正性と正確性の間のトレードオフを得る。
そこで本稿では, 顔属性の公平な分類法を, きめ細かな分類問題とみなして提案する。
論文 参考訳(メタデータ) (2024-08-29T20:08:22Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Detect Faces Efficiently: A Survey and Evaluations [13.105528567365281]
顔認識、表情認識、顔追跡、頭部推定を含む多くの応用は、画像中の顔の位置と大きさの両方が知られていると仮定する。
ディープラーニング技術は、かなりの計算量の増加と共に、対面検出に驚くべきブレークスルーをもたらした。
本稿では, 代表的な深層学習手法を紹介し, 精度と効率性の観点から, 深く, 徹底的な分析を行う。
論文 参考訳(メタデータ) (2021-12-03T08:39:40Z) - Faces in the Wild: Efficient Gender Recognition in Surveillance
Conditions [0.0]
我々は、よく知られた3つの監視データセットのフロントとワイルドフェース版を提示する。
本研究では,自然環境下での性別認識に適した顔情報と身体情報を効果的に動的に組み合わせたモデルを提案する。
本モデルでは,学習可能な融合行列とチャネル・アテンション・サブネットワークを介して顔と身体の情報を組み合わせる。
論文 参考訳(メタデータ) (2021-07-14T17:02:23Z) - Pre-training strategies and datasets for facial representation learning [58.8289362536262]
いくつかの顔分析タスクやデータセットに適用可能な普遍的な顔表現の探索方法を示す。
顔に適応する2つの大規模表現学習を体系的に検討する。
私たちの主な2つの発見は以下の通りです: 完全にインザワイルドな未処理データに対する教師なし事前トレーニングは一貫性を提供し、場合によっては大幅な精度向上をもたらします。
論文 参考訳(メタデータ) (2021-03-30T17:57:25Z) - FusiformNet: Extracting Discriminative Facial Features on Different
Levels [0.0]
顔の特徴を識別する特徴抽出フレームワークFusiformNetを提案する。
FusiformNetは、外部データ、画像拡張、正規化、特別な損失関数をラベル付けせずに96.67%の最先端の精度を達成した。
一般的な特徴と局所的な特徴の両方を抽出できる能力を考えると、FusiformNetの機能は顔認識に限らず、他のDNNベースのタスクにも拡張される可能性がある。
論文 参考訳(メタデータ) (2020-11-01T18:00:59Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。