論文の概要: Towards Universal Representation Learning for Deep Face Recognition
- arxiv url: http://arxiv.org/abs/2002.11841v1
- Date: Wed, 26 Feb 2020 23:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 15:17:08.120567
- Title: Towards Universal Representation Learning for Deep Face Recognition
- Title(参考訳): 深層顔認識のためのユニバーサル表現学習に向けて
- Authors: Yichun Shi, Xiang Yu, Kihyuk Sohn, Manmohan Chandraker, and Anil K.
Jain
- Abstract要約: 対象のドメイン知識を活用せずに、与えられたトレーニングデータに見つからない大きな変化に対処できる普遍的な表現学習フレームワークを提案する。
実験により,LFW や MegaFace などの一般的な顔認識データセットにおいて,本手法が最高性能を実現することを示す。
- 参考スコア(独自算出の注目度): 106.21744671876704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing wild faces is extremely hard as they appear with all kinds of
variations. Traditional methods either train with specifically annotated
variation data from target domains, or by introducing unlabeled target
variation data to adapt from the training data. Instead, we propose a universal
representation learning framework that can deal with larger variation unseen in
the given training data without leveraging target domain knowledge. We firstly
synthesize training data alongside some semantically meaningful variations,
such as low resolution, occlusion and head pose. However, directly feeding the
augmented data for training will not converge well as the newly introduced
samples are mostly hard examples. We propose to split the feature embedding
into multiple sub-embeddings, and associate different confidence values for
each sub-embedding to smooth the training procedure. The sub-embeddings are
further decorrelated by regularizing variation classification loss and
variation adversarial loss on different partitions of them. Experiments show
that our method achieves top performance on general face recognition datasets
such as LFW and MegaFace, while significantly better on extreme benchmarks such
as TinyFace and IJB-S.
- Abstract(参考訳): 様々なバリエーションで現れるため、野生の顔を認識することは極めて難しい。
従来の方法では、ターゲットドメインから特定の注釈付き変動データをトレーニングするか、トレーニングデータから適応するためにラベルなしのターゲット変動データを導入する。
そこで本研究では,対象領域の知識を生かせずに,与えられたトレーニングデータに見当たらない大きな変動に対処できる汎用表現学習フレームワークを提案する。
まず,低解像度,オクルージョン,頭部ポーズなどの意味論的意味のあるバリエーションとともに,トレーニングデータを合成する。
しかし、トレーニングのために拡張データを直接送り出すことは、新しく導入されたサンプルがほとんどが難しい例であるため、うまく収束しない。
本稿では,複数のサブエンベディングに組み込む特徴を分割し,各サブエンベディングに対して異なる信頼値を関連付け,トレーニング手順の円滑化を図ることを提案する。
サブエンベディングは、ばらつき分類損失と、それらの異なるパーティション上のばらつき逆損失とを規則化することにより、さらに相関する。
実験の結果,LFW や MegaFace などの一般的な顔認識データセットでは,TinyFace や IJB-S などの極端なベンチマークでは高い性能を示した。
関連論文リスト
- Boosting Unconstrained Face Recognition with Targeted Style Adversary [10.428185253933004]
ラベル付き集合とラベルなし集合のインスタンスレベルの特徴統計を補間することにより、トレーニングデータをシンプルかつ効果的に拡張する手法を提案する。
TSA(Targeted Style Adversary)と呼ばれるこの手法は,入力領域が特徴統計に反映され,(ii)顔認識モデルの性能がスタイル情報に影響されるという2つの観測結果によって動機付けられている。
論文 参考訳(メタデータ) (2024-08-14T16:13:03Z) - Exploring Data Augmentations on Self-/Semi-/Fully- Supervised
Pre-trained Models [24.376036129920948]
本研究では,データ拡張が視力事前訓練モデルの性能に与える影響について検討する。
ランダム消去(Random Erasing)、CutOut(CutOut)、CutMix(CutMix)、MixUp(MixUp)という4種類のデータ拡張を適用します。
画像分類,オブジェクト検出,インスタンスセグメンテーション,セマンティックセグメンテーションなどの視覚タスクにおける性能について報告する。
論文 参考訳(メタデータ) (2023-10-28T23:46:31Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - Improving Deep Metric Learning by Divide and Conquer [11.380358587116683]
ディープ・メトリック・ラーニング(DML)は多くのコンピュータ・ビジョン・アプリケーションの基盤となっている。
入力ドメインから埋め込み空間へのマッピングを学習することを目的としている。
埋め込み空間とデータを階層的に小さな部分に分割することで、より表現力のある表現を構築することを提案する。
論文 参考訳(メタデータ) (2021-09-09T02:57:34Z) - Cross-Domain Similarity Learning for Face Recognition in Unseen Domains [90.35908506994365]
本研究では,cdt(cross-domain triplet, クロスドメイントリプレット)の損失を推測する新しいクロスドメインメトリック学習損失法を提案する。
CDT損失は、一つのドメインからコンパクトな特徴クラスタを強制することによって意味論的に意味のある特徴の学習を促進する。
本手法では,トレーニング中,注意深いハードペアサンプルマイニングおよびフィルタリング戦略は必要としない。
論文 参考訳(メタデータ) (2021-03-12T19:48:01Z) - Guided Interpolation for Adversarial Training [73.91493448651306]
トレーニングが進むにつれて、トレーニングデータは徐々に攻撃しやすくなり、堅牢性の向上が損なわれる。
本稿では,前時代のメタ情報を用いて,データの逆変換をガイドするguided framework(gif)を提案する。
バニラミキサアップと比較すると、GIFは攻撃可能なデータの比率を高くすることができ、堅牢性向上に有効である。
論文 参考訳(メタデータ) (2021-02-15T03:55:08Z) - SSDL: Self-Supervised Domain Learning for Improved Face Recognition [0.0]
制約のない環境での顔認識は、照明のバリエーション、知覚の質、動きのぼやけなどにより困難である。
本研究では,非競合データから抽出した三重項を学習する自己教師付きドメイン学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-26T15:55:59Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Sharing Matters for Generalization in Deep Metric Learning [22.243744691711452]
本研究は,アノテーションやデータトレーニングを必要とせずに,クラスを分離した特徴を学習する方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2020-04-12T10:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。