論文の概要: Effective Adapter for Face Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2312.01734v1
- Date: Mon, 4 Dec 2023 08:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:36:14.654144
- Title: Effective Adapter for Face Recognition in the Wild
- Title(参考訳): 野生の顔認識のための効果的なアダプタ
- Authors: Yunhao Liu, Lu Qi, Yu-Ju Tsai, Xiangtai Li, Kelvin C.K. Chan,
Ming-Hsuan Yang
- Abstract要約: 私たちは、画像が低品質で現実世界の歪みに悩まされる、野生の顔認識の課題に取り組みます。
従来のアプローチでは、劣化した画像や、顔の復元技術を使って強化された画像を直接訓練するが、効果がないことが証明された。
高品質な顔データセットで訓練された既存の顔認識モデルを強化するための効果的なアダプタを提案する。
- 参考スコア(独自算出の注目度): 77.09252386558362
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we tackle the challenge of face recognition in the wild, where
images often suffer from low quality and real-world distortions. Traditional
heuristic approaches-either training models directly on these degraded images
or their enhanced counterparts using face restoration techniques-have proven
ineffective, primarily due to the degradation of facial features and the
discrepancy in image domains. To overcome these issues, we propose an effective
adapter for augmenting existing face recognition models trained on high-quality
facial datasets. The key of our adapter is to process both the unrefined and
the enhanced images by two similar structures where one is fixed and the other
trainable. Such design can confer two benefits. First, the dual-input system
minimizes the domain gap while providing varied perspectives for the face
recognition model, where the enhanced image can be regarded as a complex
non-linear transformation of the original one by the restoration model. Second,
both two similar structures can be initialized by the pre-trained models
without dropping the past knowledge. The extensive experiments in zero-shot
settings show the effectiveness of our method by surpassing baselines of about
3%, 4%, and 7% in three datasets. Our code will be publicly available at
https://github.com/liuyunhaozz/FaceAdapter/.
- Abstract(参考訳): 本稿では,画像が低品質で実世界の歪みをしばしば抱える野生動物における顔認識の課題に挑戦する。
従来のヒューリスティックなアプローチ-劣化した画像や顔の復元技術を使った強化された画像を直接トレーニングするモデル-は、主に顔の特徴の劣化と画像領域における不一致のため、効果が証明されていない。
これらの課題を克服するために、高品質な顔データセットで訓練された既存の顔認識モデルを強化する効果的なアダプタを提案する。
我々のアダプタの鍵は、未精製画像と拡張画像の両方を、一方が固定され他方がトレーニング可能な2つの類似した構造で処理することである。
このような設計は2つの利点を享受できる。
第一に、二重入力システムは、強調画像が復元モデルによって元の画像の複雑な非線形変換とみなすことができる顔認識モデルに対して様々な視点を提供しながら、ドメインギャップを最小化する。
第二に、両方の類似した構造は、過去の知識を落とさずに、事前訓練されたモデルによって初期化することができる。
ゼロショット設定による広範囲な実験では,3つのデータセットで約3%,4%,7%のベースラインを越え,本手法の有効性を示す。
私たちのコードはhttps://github.com/liuyunhaozz/FaceAdapter/で公開されます。
関連論文リスト
- Face Anonymization Made Simple [44.24233169815565]
現在の顔の匿名化技術は、しばしば、不正確で信頼性の低い顔認識モデルによって計算されたアイデンティティ損失に依存する。
対照的に,本手法では再建損失のみを伴う拡散モデルを用いて,顔のランドマークやマスクの必要性を排除している。
本モデルは,アイデンティティの匿名化,顔の保存,画質の3つの重要な領域において,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-01T17:45:21Z) - FaceChain-FACT: Face Adapter with Decoupled Training for Identity-preserved Personalization [24.600720169589334]
アダプタベースの手法は、顔データに対するテキスト・ツー・イメージのトレーニングによって、肖像画をカスタマイズし、生成する能力を得る。
ベースモデルと比較して、テスト後の能力、制御性、生成した顔の多様性が著しく低下することが多い。
我々は、モデルアーキテクチャとトレーニング戦略の両方に焦点を当てた、非結合トレーニング(FACT)フレームワークによるFace Adapterを提案する。
論文 参考訳(メタデータ) (2024-10-16T07:25:24Z) - DSL-FIQA: Assessing Facial Image Quality via Dual-Set Degradation Learning and Landmark-Guided Transformer [23.70791030264281]
Generic Face Image Quality Assessment (GFIQA) は、顔画像の知覚的品質を評価する。
本稿では,GFIQAのトランスフォーマーに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T23:11:25Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Thinking the Fusion Strategy of Multi-reference Face Reenactment [4.1509697008011175]
複数の参照画像を用いた単純な拡張は生成品質を著しく向上させることを示す。
本研究は,1)公開データセットの再構成作業,2)複数人の頭部運動映像シーケンスからなる元のデータセットの顔の動き伝達,3)新たに提案した評価指標を用いて,提案手法がより定量的な結果が得られることを検証した。
論文 参考訳(メタデータ) (2022-02-22T09:17:26Z) - RestoreFormer: High-Quality Blind Face Restoration From Undegraded
Key-Value Pairs [48.33214614798882]
RestoreFormerを提案する。これはコンテキスト情報をモデル化するための完全な空間的注意を探索する。
破損したクエリと高品質なキー-バリューペア間の完全な空間的相互作用を学習する。
1つの合成データセットと3つの実世界のデータセットにおいて、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-01-17T12:21:55Z) - Joint Face Image Restoration and Frontalization for Recognition [79.78729632975744]
現実世界のシナリオでは、大きなポーズ、悪い照明、低解像度、ぼやけ、ノイズなど、多くの要因が顔認識性能を損なう可能性がある。
それまでの努力は通常、まず品質の低い顔から高品質な顔に復元し、次に顔認識を行う。
与えられた低品質の顔からフロンダル化された高品質の顔を復元する多段階顔復元モデルを提案する。
論文 参考訳(メタデータ) (2021-05-12T03:52:41Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。