論文の概要: The Good, the Better, and the Best: Improving the Discriminability of Face Embeddings through Attribute-aware Learning
- arxiv url: http://arxiv.org/abs/2603.15062v1
- Date: Mon, 16 Mar 2026 10:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.009228
- Title: The Good, the Better, and the Best: Improving the Discriminability of Face Embeddings through Attribute-aware Learning
- Title(参考訳): 良いこと、良いこと、そして良いこと:属性認識学習による顔埋め込みの識別性の向上
- Authors: Ana Dias, João Ribeiro Pinto, Hugo Proença, João C. Neves,
- Abstract要約: 表情属性からの補助的指導による表現学習を指導する一般的な戦略は、視覚エンコーダがアイデンティティ関連領域に集中するように促すことである。
既存のアプローチは典型的には不均一で固定された属性の集合に依存し、属性間の等価な関係を暗黙的に仮定する。
本稿では,アイデンティティクラスラベル,アイデンティティ関連顔属性,非アイデンティティ関連属性を用いて,顔埋め込みの学習を指導する属性認識アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 5.429555343961488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent advances in face recognition, robust performance remains challenging under large variations in age, pose, and occlusion. A common strategy to address these issues is to guide representation learning with auxiliary supervision from facial attributes, encouraging the visual encoder to focus on identity-relevant regions. However, existing approaches typically rely on heterogeneous and fixed sets of attributes, implicitly assuming equal relevance across attributes. This assumption is suboptimal, as different attributes exhibit varying discriminative power for identity recognition, and some may even introduce harmful biases. In this paper, we propose an attribute-aware face recognition architecture that supervises the learning of facial embeddings using identity class labels, identity-relevant facial attributes, and non-identity-related attributes. Facial attributes are organized into interpretable groups, making it possible to decompose and analyze their individual contributions in a human-understandable manner. Experiments on standard face verification benchmarks demonstrate that joint learning of identity and facial attributes improves the discriminability of face embeddings with two major conclusions: (i) using identity-relevant subsets of facial attributes consistently outperforms supervision with a broader attribute set, and (ii) explicitly forcing embeddings to unlearn non-identity-related attributes yields further performance gains compared to leaving such attributes unsupervised. Additionally, our method serves as a diagnostic tool for assessing the trustworthiness of face recognition encoders by allowing for the measurement of accuracy gains with suppression of non-identity-relevant attributes, with such gains suggesting shortcut learning from redundant attributes associated with each identity.
- Abstract(参考訳): 近年の顔認識の進歩にもかかわらず、年齢、ポーズ、オクルージョンの大きな変化の下では、堅牢なパフォーマンスは依然として困難である。
これらの課題に対処するための一般的な戦略は、表現学習を顔の特徴から補助的に指導し、視覚エンコーダがアイデンティティ関連領域に焦点を合わせることを奨励することである。
しかし、既存のアプローチは典型的には不均一な属性と固定された属性の集合に依存し、属性間の等価な関係を暗黙的に仮定する。
この仮定は準最適であり、様々な属性が識別のための識別力を示しており、有害なバイアスをもたらすこともある。
本稿では、アイデンティティクラスラベル、アイデンティティ関連顔属性、非アイデンティティ関連属性を用いて、顔埋め込みの学習を監督する属性認識型顔認識アーキテクチャを提案する。
顔の特徴は解釈可能なグループに分類され、人間の理解可能な方法で個々の貢献を分解し分析することができる。
標準的な顔認証ベンチマークの実験では、アイデンティティと顔属性の同時学習は、顔埋め込みの識別性を2つの主要な結論で改善することを示した。
一 顔属性の同一性関連部分集合の使用は、より広い属性セットで監督を一貫して上回り、
(ii) 埋め込みを未学習の非同一性関連属性に明示的に強制することは、そのような属性を監督されていないままにしておくよりも、さらなるパフォーマンス向上をもたらす。
さらに,本手法は,非同一性関連属性の抑制による精度向上の計測を可能にすることにより,顔認識エンコーダの信頼性を評価するための診断ツールとして機能し,各識別に関連付けられた冗長属性からのショートカット学習を提案する。
関連論文リスト
- Attribute Guidance With Inherent Pseudo-label For Occluded Person Re-identification [16.586742421279137]
Attribute-Guide ReID(AG-ReID)は、追加のデータやアノテーションなしで詳細なセマンティック属性を抽出する新しいフレームワークである。
まず、微妙な視覚的特徴を捉えた属性の擬似ラベルを生成し、次に二重誘導機構を導入する。
大規模な実験により、AG-ReIDは複数の広く使用されているRe-IDデータセットで最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2025-08-07T03:13:24Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Disentangle Before Anonymize: A Two-stage Framework for Attribute-preserved and Occlusion-robust De-identification [55.741525129613535]
匿名化前の混乱」は、新しい二段階フレームワーク(DBAF)である
このフレームワークには、Contrastive Identity Disentanglement (CID)モジュールとKey-authorized Reversible Identity Anonymization (KRIA)モジュールが含まれている。
大規模な実験により,本手法は最先端の非識別手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Disentanglement for Discriminative Visual Recognition [7.954325638519141]
この章では、有害な要因を、タスク関連/非関連なセマンティックなバリエーションと、特定されていない潜伏的なバリエーションとして体系的に要約する。
統合された2つの完全に接続されたレイヤブランチフレームワークにおいて、ディープメトリックロスとソフトマックスロスを組み合わせることで、より優れたFER性能を実現することができる。
このフレームワークは、照明、化粧、変装耐性顔認証、顔属性認識など、一連のタスクにおいて最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-14T06:10:51Z) - An Empirical Study of Person Re-Identification with Attributes [15.473033192858543]
本稿では, 属性に基づく手法を提案し, 興味のある人物を視覚的属性の集合として記述する。
複数のアルゴリズムを比較し、属性の品質がパフォーマンスに与える影響を分析する。
キーとなる結論は、専門家が注釈付けした属性ではなく、専門家でない属性によって達成されるパフォーマンスは、個人を再識別するための属性ベースのアプローチのステータスクォーのより忠実な指標である、ということだ。
論文 参考訳(メタデータ) (2020-01-25T22:18:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。