論文の概要: Faces in the Wild: Efficient Gender Recognition in Surveillance
Conditions
- arxiv url: http://arxiv.org/abs/2107.06847v1
- Date: Wed, 14 Jul 2021 17:02:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:17:39.101718
- Title: Faces in the Wild: Efficient Gender Recognition in Surveillance
Conditions
- Title(参考訳): 野生の顔:監視条件下での効率的なジェンダー認識
- Authors: Tiago Roxo and Hugo Proen\c{c}a
- Abstract要約: 我々は、よく知られた3つの監視データセットのフロントとワイルドフェース版を提示する。
本研究では,自然環境下での性別認識に適した顔情報と身体情報を効果的に動的に組み合わせたモデルを提案する。
本モデルでは,学習可能な融合行列とチャネル・アテンション・サブネットワークを介して顔と身体の情報を組み合わせる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Soft biometrics inference in surveillance scenarios is a topic of interest
for various applications, particularly in security-related areas. However, soft
biometric analysis is not extensively reported in wild conditions. In
particular, previous works on gender recognition report their results in face
datasets, with relatively good image quality and frontal poses. Given the
uncertainty of the availability of the facial region in wild conditions, we
consider that these methods are not adequate for surveillance settings. To
overcome these limitations, we: 1) present frontal and wild face versions of
three well-known surveillance datasets; and 2) propose a model that effectively
and dynamically combines facial and body information, which makes it suitable
for gender recognition in wild conditions. The frontal and wild face datasets
derive from widely used Pedestrian Attribute Recognition (PAR) sets (PETA,
PA-100K, and RAP), using a pose-based approach to filter the frontal samples
and facial regions. This approach retrieves the facial region of images with
varying image/subject conditions, where the state-of-the-art face detectors
often fail. Our model combines facial and body information through a learnable
fusion matrix and a channel-attention sub-network, focusing on the most
influential body parts according to the specific image/subject features. We
compare it with five PAR methods, consistently obtaining state-of-the-art
results on gender recognition, and reducing the prediction errors by up to 24%
in frontal samples. The announced PAR datasets versions and model serve as the
basis for wild soft biometrics classification and are available in
https://github.com/Tiago-Roxo.
- Abstract(参考訳): 監視シナリオにおけるソフトバイオメトリックス推論は、様々なアプリケーション、特にセキュリティ関連の分野での関心事である。
しかし、ソフトバイオメトリック解析は野生環境では広く報告されていない。
特に、性別認識に関する以前の研究は、比較的良好な画像品質と正面ポーズを持つ顔データセットの結果を報告している。
野生環境での顔領域の可用性の不確実性を考えると,これらの手法は監視設定に適していないと考えられる。
これらの制約を克服するため,1) 3つのよく知られた監視データセットの正面および野生の顔バージョンを提示し,2)野生環境での性別認識に適した顔情報と身体情報を効果的に動的に結合するモデルを提案する。
前面と野面のデータセットは、前面サンプルと顔領域をフィルタリングするためのポーズに基づくアプローチを用いて、広く使用されている歩行者属性認識(PAR)セット(PETA、PA-100K、RAP)から派生した。
このアプローチは、最先端の顔検出器がしばしば失敗する画像/オブジェクト条件の異なる画像の顔領域を検索する。
本モデルでは,学習可能な融合マトリクスとチャネル・アテンション・サブネットワークを介して顔と身体の情報を結合し,特定の画像/サブジェクトの特徴に応じて最も影響力のある身体部位に焦点をあてる。
5つのpar法と比較し,性別認識における最先端の結果を一貫して獲得し,前頭標本の予測誤差を最大24%低減した。
発表されたPARデータセットのバージョンとモデルは、野生のソフトバイオメトリックス分類の基礎となり、https://github.com/Tiago-Roxo.comで利用可能である。
関連論文リスト
- DiffusionFace: Towards a Comprehensive Dataset for Diffusion-Based Face Forgery Analysis [71.40724659748787]
DiffusionFaceは、最初の拡散ベースのフェイスフォージェリーデータセットである。
非条件およびテキストガイドの顔画像生成、Img2Img、Inpaint、Diffusionベースの顔交換アルゴリズムなど、さまざまなフォージェリーカテゴリをカバーする。
重要なメタデータと、評価のための実世界のインターネットソースの偽顔画像データセットを提供する。
論文 参考訳(メタデータ) (2024-03-27T11:32:44Z) - Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Graph-based Generative Face Anonymisation with Pose Preservation [49.18049578591058]
AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
論文 参考訳(メタデータ) (2021-12-10T12:58:17Z) - An Attack on Feature Level-based Facial Soft-biometric Privacy
Enhancement [13.780253190395715]
特徴レベルに基づく顔ソフトバイオメトリック・プライバシ・エンハンスメント技術に対する攻撃を導入する。
プライバシーの強化を回避することができ、性別を最大90%の精度で正しく分類することができる。
論文 参考訳(メタデータ) (2021-11-24T10:41:15Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Is Gender "In-the-Wild" Inference Really a Solved Problem? [0.0]
画像(解像度、輝度、ボケ)と主題に基づく特徴に関する推論の実現可能性に関する広範な分析を報告する。
3つの最先端データセットを用いて、特徴分析と性別推定精度を相関させる。
顔に基づく性別推定を分析し,そのポーズ効果を評価した。
論文 参考訳(メタデータ) (2021-05-12T17:05:03Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Multi-Scale Thermal to Visible Face Verification via Attribute Guided
Synthesis [55.29770222566124]
可視画像から抽出した属性を用いて、熱画像から属性保存された可視画像を合成し、クロスモーダルマッチングを行う。
抽出した属性によって導かれる熱画像から可視像を合成するために, 新規なマルチスケールジェネレータを提案する。
事前訓練されたVGG-Faceネットワークを利用して、合成画像と入力可視画像から特徴を抽出し、検証を行う。
論文 参考訳(メタデータ) (2020-04-20T01:45:05Z) - PrivacyNet: Semi-Adversarial Networks for Multi-attribute Face Privacy [15.301150389512744]
画像手法を用いて, 顔画像に対するソフトバイオメトリック・プライバシを実現する手法を開発した。
画像摂動は、GANをベースとしたSAN(Semi-Adversarial Network)を用いて行われる。
PrivacyNetでは、入力された顔画像に難読化される属性を選択することができる。
論文 参考訳(メタデータ) (2020-01-02T18:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。