論文の概要: Efficient Low-Resolution Face Recognition via Bridge Distillation
- arxiv url: http://arxiv.org/abs/2409.11786v1
- Date: Wed, 18 Sep 2024 08:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 18:34:01.734551
- Title: Efficient Low-Resolution Face Recognition via Bridge Distillation
- Title(参考訳): 橋梁蒸留による高効率低分解能顔認識
- Authors: Shiming Ge, Shengwei Zhao, Chenyu Li, Yu Zhang, Jia Li,
- Abstract要約: そこで本研究では,プライベートな高分解能顔に事前訓練された複雑な顔モデルを,低分解能顔認識のための軽量な顔に変換するための橋梁蒸留手法を提案する。
実験結果から,0.21Mパラメータと0.057MBメモリしか持たない低解像度顔を認識する上で,学生モデルが顕著に機能することが確認された。
- 参考スコア(独自算出の注目度): 40.823152928253776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition in the wild is now advancing towards light-weight models, fast inference speed and resolution-adapted capability. In this paper, we propose a bridge distillation approach to turn a complex face model pretrained on private high-resolution faces into a light-weight one for low-resolution face recognition. In our approach, such a cross-dataset resolution-adapted knowledge transfer problem is solved via two-step distillation. In the first step, we conduct cross-dataset distillation to transfer the prior knowledge from private high-resolution faces to public high-resolution faces and generate compact and discriminative features. In the second step, the resolution-adapted distillation is conducted to further transfer the prior knowledge to synthetic low-resolution faces via multi-task learning. By learning low-resolution face representations and mimicking the adapted high-resolution knowledge, a light-weight student model can be constructed with high efficiency and promising accuracy in recognizing low-resolution faces. Experimental results show that the student model performs impressively in recognizing low-resolution faces with only 0.21M parameters and 0.057MB memory. Meanwhile, its speed reaches up to 14,705, ~934 and 763 faces per second on GPU, CPU and mobile phone, respectively.
- Abstract(参考訳): 顔認識技術は現在、軽量モデル、高速推論速度、解像度適応機能に向けて進歩している。
本稿では,プライベートな高分解能顔に事前訓練された複雑な顔モデルを,低分解能顔認識のための軽量な顔に変換するための橋梁蒸留手法を提案する。
提案手法では, 2段階蒸留法を用いて, クロスデータセット分解能適応型知識伝達問題を解く。
第1段階では,従来の知識をプライベートな高解像度の顔からパブリックな高解像度の顔へ伝達し,コンパクトで識別可能な特徴を生成するクロスデータセット蒸留を行う。
第2段階では、先行知識をマルチタスク学習により合成された低解像度の顔に転送するために、分解能適応蒸留を行う。
低解像度の顔表現を学習し、適応された高解像度の知識を模倣することにより、低解像度の顔を認識する上で、高効率で有望な精度で軽量の学生モデルを構築することができる。
実験結果から,0.21Mパラメータと0.057MBメモリしか持たない低解像度顔を認識する上で,学生モデルが顕著に機能することが確認された。
一方、その速度は、GPU、CPU、携帯電話で毎秒14,705, ~934, 763顔に達する。
関連論文リスト
- Distilling Generative-Discriminative Representations for Very Low-Resolution Face Recognition [19.634712802639356]
非常に低解像度の顔認識は、分解能劣化における情報的な顔の詳細の欠如により困難である。
本稿では, 生成的表現とクロスレゾリューション・アライメント・アライメント・ナレッジ・蒸留を組み合わせた生成的識別的表現蒸留手法を提案する。
提案手法は, 極めて低解像度な面における詳細の欠落の回復を改善し, より優れた知識伝達を実現する。
論文 参考訳(メタデータ) (2024-09-10T09:53:06Z) - Low-Resolution Face Recognition via Adaptable Instance-Relation Distillation [18.709870458307574]
低解像度の顔認識は、情報的詳細が欠落しているため、難しい課題である。
近年のアプローチでは、高分解能な手がかりが適切な知識伝達を通じて、低分解能な顔認識を導出できることが証明されている。
低分解能顔認識を容易にするための適応型インスタンス相関蒸留法を提案する。
論文 参考訳(メタデータ) (2024-09-03T16:53:34Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - Exploring Deep Learning Image Super-Resolution for Iris Recognition [50.43429968821899]
重畳自動エンコーダ(SAE)と畳み込みニューラルネットワーク(CNN)の2つの深層学習単一画像超解法手法を提案する。
精度評価と認識実験により,1.872個の近赤外虹彩画像のデータベースを用いて評価を行い,比較アルゴリズムよりも深層学習の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:57:48Z) - One-stage Low-resolution Text Recognition with High-resolution Knowledge
Transfer [53.02254290682613]
現在の低解像度テキスト認識のソリューションは、通常2段階のパイプラインに依存している。
本稿では,多段階の知識伝達を実現するための効率的かつ効果的な知識蒸留フレームワークを提案する。
実験の結果、提案されたワンステージパイプラインは、超高解像度ベースの2ステージフレームワークよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-08-05T02:33:45Z) - Cross-resolution Face Recognition via Identity-Preserving Network and
Knowledge Distillation [12.090322373964124]
クロスレゾリューション顔認識は、現代の深層顔認識システムにとって難しい問題である。
本稿では,低分解能画像の低周波成分に蓄積される識別情報にネットワークを集中させる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-15T14:52:46Z) - Efficient High-Resolution Deep Learning: A Survey [90.76576712433595]
スマートフォン、衛星、医療機器などの現代の機器のカメラは、非常に高解像度の画像やビデオを撮影することができる。
このような高解像度データは、がん検出、自動道路ナビゲーション、天気予報、監視、農業プロセスの最適化、その他多くの応用のためのディープラーニングモデルによって処理される。
ディープラーニングモデルの直接入力として高解像度の画像とビデオを使用することで、パラメータの多さ、計算コスト、推論レイテンシ、GPUメモリ使用量など、多くの課題が生じる。
文献におけるいくつかの研究は、高解像度データの課題に対処し、ハードウェアの制限に従いながら精度とスピードを改善するために、より良い代替案を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:13:53Z) - Octuplet Loss: Make Face Recognition Robust to Image Resolution [5.257115841810258]
本稿では,画像解像度に対するロバスト性を改善するために,人気三重項損失の新たな組み合わせを提案する。
我々は,高分解能画像とそれらの合成ダウンサンプリング変異体との関係をアイデンティティラベルと組み合わせて活用する。
本手法は, クロスレゾリューション (高分解能) 顔認証の性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-07-14T08:22:58Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。