論文の概要: Teaching Where to Look: Attention Similarity Knowledge Distillation for
Low Resolution Face Recognition
- arxiv url: http://arxiv.org/abs/2209.14498v1
- Date: Thu, 29 Sep 2022 01:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:22:23.049693
- Title: Teaching Where to Look: Attention Similarity Knowledge Distillation for
Low Resolution Face Recognition
- Title(参考訳): 見るべき場所を教える--低解像度顔認識のための注意相似知識蒸留
- Authors: Sungho Shin, Joosoon Lee, Junseok Lee, Yeonguk Yu, Kyoobin Lee
- Abstract要約: 本稿では,教師として高分解能(HR)ネットワークから得られた注目マップを,学生としてLRネットワークに転送し,LR認識性能を向上させる注意類似性知識蒸留手法を提案する。
様々なLR面関連ベンチマーク実験により、提案手法はLR設定における認識性能を全般的に向上し、よく構築された注目マップを単純に転送することで、最先端の結果よりも優れることを確認した。
- 参考スコア(独自算出の注目度): 5.958529344837164
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning has achieved outstanding performance for face recognition
benchmarks, but performance reduces significantly for low resolution (LR)
images. We propose an attention similarity knowledge distillation approach,
which transfers attention maps obtained from a high resolution (HR) network as
a teacher into an LR network as a student to boost LR recognition performance.
Inspired by humans being able to approximate an object's region from an LR
image based on prior knowledge obtained from HR images, we designed the
knowledge distillation loss using the cosine similarity to make the student
network's attention resemble the teacher network's attention. Experiments on
various LR face related benchmarks confirmed the proposed method generally
improved recognition performances on LR settings, outperforming
state-of-the-art results by simply transferring well-constructed attention
maps. The code and pretrained models are publicly available in the
https://github.com/gist-ailab/teaching-where-to-look.
- Abstract(参考訳): ディープラーニングは顔認識ベンチマークでは優れた性能を達成しているが、低解像度(LR)画像では性能が大幅に低下する。
本稿では,教師として高分解能(HR)ネットワークから得られた注目マップを,学生としてLRネットワークに転送し,LR認識性能を向上させる注意類似知識蒸留手法を提案する。
HR画像から得られた事前知識に基づいてLR画像から物体の領域を近似できる人間にインスパイアされ,コサイン類似性を用いて知識蒸留損失を設計し,学生ネットワークの注意を教師ネットワークの注意に似せるようにした。
様々なLR面関連ベンチマーク実験により、提案手法はLR設定における認識性能を全般的に向上し、よく構築された注目マップを単純に転送することで、最先端の結果よりも優れることを確認した。
コードと事前訓練されたモデルはhttps://github.com/gist-ailab/teaching-where-lookで公開されている。
関連論文リスト
- LeOCLR: Leveraging Original Images for Contrastive Learning of Visual Representations [4.680881326162484]
画像分類やオブジェクト検出などの下流タスクにおける教師あり学習よりも優れている。
対照的な学習における一般的な強化手法は、ランダムな収穫とそれに続くリサイズである。
本稿では,新しいインスタンス識別手法と適応型損失関数を用いたフレームワークであるLeOCLRを紹介する。
論文 参考訳(メタデータ) (2024-03-11T15:33:32Z) - DeLR: Active Learning for Detection with Decoupled Localization and
Recognition Query [53.54802901197267]
本稿では,物体検出のための2つの重要な要素,すなわち局所化と認識を再考する。
そこで本研究では,アクティブクエリの局所化と認識をデカップリングする,効率的なクエリ戦略を提案する。
論文 参考訳(メタデータ) (2023-12-28T09:58:32Z) - Exploring Deep Learning Image Super-Resolution for Iris Recognition [50.43429968821899]
重畳自動エンコーダ(SAE)と畳み込みニューラルネットワーク(CNN)の2つの深層学習単一画像超解法手法を提案する。
精度評価と認識実験により,1.872個の近赤外虹彩画像のデータベースを用いて評価を行い,比較アルゴリズムよりも深層学習の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:57:48Z) - Enhancing Low-resolution Face Recognition with Feature Similarity
Knowledge Distillation [6.735657356113614]
提案フレームワークは, HR学習ネットワークからLR学習ネットワークへ, 距離を縮めることで情報的特徴を伝達する。
HRとLRの特徴を効果的に整合させるため,コサイン類似度尺度を距離計として用いた。
AgeDB-30ベンチマークでは,従来の最先端手法よりも3%改善した。
論文 参考訳(メタデータ) (2023-03-08T16:11:46Z) - Combining Attention Module and Pixel Shuffle for License Plate
Super-Resolution [3.8831062015253055]
本研究は,低解像度・低画質画像におけるライセンスプレート(LP)再構成に焦点を当てた。
本稿では、注目/変圧器モジュールの概念を拡張したシングルイメージ超解法(SISR)アプローチを提案する。
実験では, 提案手法は, 定量的および定性的に, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-30T13:05:07Z) - Impact of a DCT-driven Loss in Attention-based Knowledge-Distillation
for Scene Recognition [64.29650787243443]
本稿では, アクティベーションマップの2次元周波数変換を転送前に提案し, 解析する。
この戦略は、シーン認識などのタスクにおける知識伝達可能性を高める。
我々は、この論文で使われているトレーニングおよび評価フレームワークを、http://www.vpu.eps.uam.es/publications/DCTBasedKDForSceneRecognitionで公開しています。
論文 参考訳(メタデータ) (2022-05-04T11:05:18Z) - Learning Efficient Representations for Enhanced Object Detection on
Large-scene SAR Images [16.602738933183865]
SAR(Synthetic Aperture Radar)画像のターゲットの検出と認識は難しい問題である。
近年開発されたディープラーニングアルゴリズムは,SAR画像の固有の特徴を自動的に学習することができる。
本稿では,効率的かつ堅牢なディープラーニングに基づくターゲット検出手法を提案する。
論文 参考訳(メタデータ) (2022-01-22T03:25:24Z) - Hierarchical Conditional Flow: A Unified Framework for Image
Super-Resolution and Image Rescaling [139.25215100378284]
画像SRと画像再スケーリングのための統合フレームワークとして階層的条件フロー(HCFlow)を提案する。
HCFlowは、LR画像と残りの高周波成分の分布を同時にモデル化することにより、HRとLR画像ペア間のマッピングを学習する。
さらに性能を高めるために、知覚的損失やGAN損失などの他の損失と、トレーニングで一般的に使用される負の対数類似損失とを組み合わせる。
論文 参考訳(メタデータ) (2021-08-11T16:11:01Z) - Deep Rival Penalized Competitive Learning for Low-resolution Face
Recognition [6.422508373767982]
低分解能(LR)画像における深層顔認識のための深部ライバル学習(RPCL)を提案する。
提案手法は,対象ラベルに対する学習を強化するだけでなく,逆方向,すなわち非学習を競合ラベルから遠ざけて実施する。
論文 参考訳(メタデータ) (2021-08-03T04:14:56Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。