論文の概要: Effective Adapter for Face Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2312.01734v1
- Date: Mon, 4 Dec 2023 08:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:36:14.654144
- Title: Effective Adapter for Face Recognition in the Wild
- Title(参考訳): 野生の顔認識のための効果的なアダプタ
- Authors: Yunhao Liu, Lu Qi, Yu-Ju Tsai, Xiangtai Li, Kelvin C.K. Chan,
Ming-Hsuan Yang
- Abstract要約: 私たちは、画像が低品質で現実世界の歪みに悩まされる、野生の顔認識の課題に取り組みます。
従来のアプローチでは、劣化した画像や、顔の復元技術を使って強化された画像を直接訓練するが、効果がないことが証明された。
高品質な顔データセットで訓練された既存の顔認識モデルを強化するための効果的なアダプタを提案する。
- 参考スコア(独自算出の注目度): 77.09252386558362
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we tackle the challenge of face recognition in the wild, where
images often suffer from low quality and real-world distortions. Traditional
heuristic approaches-either training models directly on these degraded images
or their enhanced counterparts using face restoration techniques-have proven
ineffective, primarily due to the degradation of facial features and the
discrepancy in image domains. To overcome these issues, we propose an effective
adapter for augmenting existing face recognition models trained on high-quality
facial datasets. The key of our adapter is to process both the unrefined and
the enhanced images by two similar structures where one is fixed and the other
trainable. Such design can confer two benefits. First, the dual-input system
minimizes the domain gap while providing varied perspectives for the face
recognition model, where the enhanced image can be regarded as a complex
non-linear transformation of the original one by the restoration model. Second,
both two similar structures can be initialized by the pre-trained models
without dropping the past knowledge. The extensive experiments in zero-shot
settings show the effectiveness of our method by surpassing baselines of about
3%, 4%, and 7% in three datasets. Our code will be publicly available at
https://github.com/liuyunhaozz/FaceAdapter/.
- Abstract(参考訳): 本稿では,画像が低品質で実世界の歪みをしばしば抱える野生動物における顔認識の課題に挑戦する。
従来のヒューリスティックなアプローチ-劣化した画像や顔の復元技術を使った強化された画像を直接トレーニングするモデル-は、主に顔の特徴の劣化と画像領域における不一致のため、効果が証明されていない。
これらの課題を克服するために、高品質な顔データセットで訓練された既存の顔認識モデルを強化する効果的なアダプタを提案する。
我々のアダプタの鍵は、未精製画像と拡張画像の両方を、一方が固定され他方がトレーニング可能な2つの類似した構造で処理することである。
このような設計は2つの利点を享受できる。
第一に、二重入力システムは、強調画像が復元モデルによって元の画像の複雑な非線形変換とみなすことができる顔認識モデルに対して様々な視点を提供しながら、ドメインギャップを最小化する。
第二に、両方の類似した構造は、過去の知識を落とさずに、事前訓練されたモデルによって初期化することができる。
ゼロショット設定による広範囲な実験では,3つのデータセットで約3%,4%,7%のベースラインを越え,本手法の有効性を示す。
私たちのコードはhttps://github.com/liuyunhaozz/FaceAdapter/で公開されます。
関連論文リスト
- Optimal-Landmark-Guided Image Blending for Face Morphing Attacks [8.024953195407502]
本稿では,最適なランドマーク誘導画像ブレンディングを用いた顔形態形成攻撃を行うための新しい手法を提案する。
提案手法は, ランドマークの最適化とグラフ畳み込みネットワーク(GCN)によるランドマークと外観特徴の組み合わせにより, 従来のアプローチの限界を克服する。
論文 参考訳(メタデータ) (2024-01-30T03:45:06Z) - High-Fidelity Face Swapping with Style Blending [16.024260677867076]
高忠実な顔交換のための革新的なエンドツーエンドフレームワークを提案する。
まず、スタイルGANベースの顔属性エンコーダを導入し、顔から重要な特徴を抽出し、潜在スタイルコードに変換する。
第二に、ターゲットからターゲットへFace IDを効果的に転送するアテンションベースのスタイルブレンディングモジュールを導入する。
論文 参考訳(メタデータ) (2023-12-17T23:22:37Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - RestoreFormer: High-Quality Blind Face Restoration From Undegraded
Key-Value Pairs [48.33214614798882]
RestoreFormerを提案する。これはコンテキスト情報をモデル化するための完全な空間的注意を探索する。
破損したクエリと高品質なキー-バリューペア間の完全な空間的相互作用を学習する。
1つの合成データセットと3つの実世界のデータセットにおいて、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-01-17T12:21:55Z) - Joint Face Image Restoration and Frontalization for Recognition [79.78729632975744]
現実世界のシナリオでは、大きなポーズ、悪い照明、低解像度、ぼやけ、ノイズなど、多くの要因が顔認識性能を損なう可能性がある。
それまでの努力は通常、まず品質の低い顔から高品質な顔に復元し、次に顔認識を行う。
与えられた低品質の顔からフロンダル化された高品質の顔を復元する多段階顔復元モデルを提案する。
論文 参考訳(メタデータ) (2021-05-12T03:52:41Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。