論文の概要: Distilling Generative-Discriminative Representations for Very Low-Resolution Face Recognition
- arxiv url: http://arxiv.org/abs/2409.06371v1
- Date: Tue, 10 Sep 2024 09:53:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 18:19:52.457910
- Title: Distilling Generative-Discriminative Representations for Very Low-Resolution Face Recognition
- Title(参考訳): 極低解像度顔認識のための発音識別表現の蒸留
- Authors: Junzheng Zhang, Weijia Guo, Bochao Liu, Ruixin Shi, Yong Li, Shiming Ge,
- Abstract要約: 非常に低解像度の顔認識は、分解能劣化における情報的な顔の詳細の欠如により困難である。
本稿では, 生成的表現とクロスレゾリューション・アライメント・アライメント・ナレッジ・蒸留を組み合わせた生成的識別的表現蒸留手法を提案する。
提案手法は, 極めて低解像度な面における詳細の欠落の回復を改善し, より優れた知識伝達を実現する。
- 参考スコア(独自算出の注目度): 19.634712802639356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Very low-resolution face recognition is challenging due to the serious loss of informative facial details in resolution degradation. In this paper, we propose a generative-discriminative representation distillation approach that combines generative representation with cross-resolution aligned knowledge distillation. This approach facilitates very low-resolution face recognition by jointly distilling generative and discriminative models via two distillation modules. Firstly, the generative representation distillation takes the encoder of a diffusion model pretrained for face super-resolution as the generative teacher to supervise the learning of the student backbone via feature regression, and then freezes the student backbone. After that, the discriminative representation distillation further considers a pretrained face recognizer as the discriminative teacher to supervise the learning of the student head via cross-resolution relational contrastive distillation. In this way, the general backbone representation can be transformed into discriminative head representation, leading to a robust and discriminative student model for very low-resolution face recognition. Our approach improves the recovery of the missing details in very low-resolution faces and achieves better knowledge transfer. Extensive experiments on face datasets demonstrate that our approach enhances the recognition accuracy of very low-resolution faces, showcasing its effectiveness and adaptability.
- Abstract(参考訳): 非常に低解像度の顔認識は、分解能劣化における情報的な顔の細部が著しく失われているため困難である。
本稿では,生成表現とクロスレゾリューション・アライメント・アライメント・ナレッジ・蒸留を組み合わせた生成-識別的表現蒸留手法を提案する。
このアプローチは、2つの蒸留モジュールを通して生成モデルと識別モデルを共同で蒸留することで、非常に低解像度の顔認識を促進する。
まず、生成表現蒸留は、顔超解像のために予め訓練された拡散モデルのエンコーダを生成教師として、特徴回帰により生徒のバックボーンの学習を監督し、学生のバックボーンを凍結させる。
その後、識別表現蒸留は、予め訓練された顔認識器を、クロスレゾリューションリレーショナルコントラスト蒸留により、生徒の学習を監督する識別教師とみなす。
このようにして、一般的なバックボーン表現は差別的頭部表現に変換することができ、非常に低解像度の顔認識のための頑健で差別的な学生モデルをもたらす。
提案手法は, 極めて低解像度な面における詳細の欠落の回復を改善し, より優れた知識伝達を実現する。
顔データセットに対する大規模な実験により、我々のアプローチは、非常に低解像度の顔の認識精度を高め、その有効性と適応性を示す。
関連論文リスト
- Efficient Low-Resolution Face Recognition via Bridge Distillation [40.823152928253776]
そこで本研究では,プライベートな高分解能顔に事前訓練された複雑な顔モデルを,低分解能顔認識のための軽量な顔に変換するための橋梁蒸留手法を提案する。
実験結果から,0.21Mパラメータと0.057MBメモリしか持たない低解像度顔を認識する上で,学生モデルが顕著に機能することが確認された。
論文 参考訳(メタデータ) (2024-09-18T08:10:35Z) - Look One and More: Distilling Hybrid Order Relational Knowledge for Cross-Resolution Image Recognition [30.568519905346253]
本稿では,ハイブリッド順序関係知識蒸留による低分解能画像認識を容易にするための教師学生学習手法を提案する。
提案手法は,教師ストリームを高精度に高精細画像を認識するために事前訓練し,教師の行動を模倣して低精細画像の識別を学習し,余分な補助ストリームを橋渡しとして導入し,教師から生徒への知識伝達を支援する。
論文 参考訳(メタデータ) (2024-09-09T07:32:18Z) - Low-Resolution Object Recognition with Cross-Resolution Relational Contrastive Distillation [22.26932361388872]
低分解能物体認識を容易にするクロスレゾリューションリレーショナルコントラスト蒸留法を提案する。
本手法は,学生モデルが教師モデルの動作を模倣することを可能にする。
このようにして、慣れ親しんだ低解像度物体の欠落した詳細を復元する能力を効果的に向上することができる。
論文 参考訳(メタデータ) (2024-09-04T09:21:13Z) - Low-Resolution Face Recognition via Adaptable Instance-Relation Distillation [18.709870458307574]
低解像度の顔認識は、情報的詳細が欠落しているため、難しい課題である。
近年のアプローチでは、高分解能な手がかりが適切な知識伝達を通じて、低分解能な顔認識を導出できることが証明されている。
低分解能顔認識を容易にするための適応型インスタンス相関蒸留法を提案する。
論文 参考訳(メタデータ) (2024-09-03T16:53:34Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Cross-resolution Face Recognition via Identity-Preserving Network and
Knowledge Distillation [12.090322373964124]
クロスレゾリューション顔認識は、現代の深層顔認識システムにとって難しい問題である。
本稿では,低分解能画像の低周波成分に蓄積される識別情報にネットワークを集中させる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-15T14:52:46Z) - ProxylessKD: Direct Knowledge Distillation with Inherited Classifier for
Face Recognition [84.49978494275382]
知識蒸留(KD)とは、大きなモデルから小さなモデルに知識を移すことである。
本研究では,顔認識におけるその応用に焦点を当てる。
本稿では,顔認識の精度を直接最適化するProxylessKDを提案する。
論文 参考訳(メタデータ) (2020-10-31T13:14:34Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。