論文の概要: Low-Resolution Face Recognition via Adaptable Instance-Relation Distillation
- arxiv url: http://arxiv.org/abs/2409.02049v1
- Date: Tue, 3 Sep 2024 16:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 00:21:46.614924
- Title: Low-Resolution Face Recognition via Adaptable Instance-Relation Distillation
- Title(参考訳): 適応型インスタンス相関蒸留による低分解能顔認識
- Authors: Ruixin Shi, Weijia Guo, Shiming Ge,
- Abstract要約: 低解像度の顔認識は、情報的詳細が欠落しているため、難しい課題である。
近年のアプローチでは、高分解能な手がかりが適切な知識伝達を通じて、低分解能な顔認識を導出できることが証明されている。
低分解能顔認識を容易にするための適応型インスタンス相関蒸留法を提案する。
- 参考スコア(独自算出の注目度): 18.709870458307574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-resolution face recognition is a challenging task due to the missing of informative details. Recent approaches based on knowledge distillation have proven that high-resolution clues can well guide low-resolution face recognition via proper knowledge transfer. However, due to the distribution difference between training and testing faces, the learned models often suffer from poor adaptability. To address that, we split the knowledge transfer process into distillation and adaptation steps, and propose an adaptable instance-relation distillation approach to facilitate low-resolution face recognition. In the approach, the student distills knowledge from high-resolution teacher in both instance level and relation level, providing sufficient cross-resolution knowledge transfer. Then, the learned student can be adaptable to recognize low-resolution faces with adaptive batch normalization in inference. In this manner, the capability of recovering missing details of familiar low-resolution faces can be effectively enhanced, leading to a better knowledge transfer. Extensive experiments on low-resolution face recognition clearly demonstrate the effectiveness and adaptability of our approach.
- Abstract(参考訳): 低解像度の顔認識は、情報的詳細が欠落しているため、難しい課題である。
知識蒸留に基づく最近のアプローチは、高解像度の手がかりが適切な知識伝達を通して、低解像度の顔認識を導出できることを証明している。
しかしながら、トレーニングとテストの面の分布の違いにより、学習されたモデルは適応性の低下に悩まされることが多い。
そこで我々は,知識伝達過程を蒸留・適応段階に分割し,低分解能顔認識を容易にするための適応可能なインスタンス関連蒸留手法を提案する。
提案手法では,高分解能教師からの知識をインスタンスレベルと関係レベルの両方で抽出し,クロスレゾリューションな知識伝達を実現する。
そして、学習した学生は、推論において適応的なバッチ正規化を伴う低解像度の顔を認識するように適応することができる。
このように、慣れ親しんだ低解像度の顔の欠損した詳細を回復する能力は効果的に向上し、より良い知識伝達につながる。
低解像度顔認証に関する広範囲な実験は、我々のアプローチの有効性と適応性を明確に示している。
関連論文リスト
- Collaborative Knowledge Infusion for Low-resource Stance Detection [83.88515573352795]
姿勢検出モデルを支援するために、ターゲット関連の知識がしばしば必要である。
低リソース姿勢検出タスクに対する協調的知識注入手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T08:32:14Z) - One-stage Low-resolution Text Recognition with High-resolution Knowledge
Transfer [53.02254290682613]
現在の低解像度テキスト認識のソリューションは、通常2段階のパイプラインに依存している。
本稿では,多段階の知識伝達を実現するための効率的かつ効果的な知識蒸留フレームワークを提案する。
実験の結果、提案されたワンステージパイプラインは、超高解像度ベースの2ステージフレームワークよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-08-05T02:33:45Z) - Cross-resolution Face Recognition via Identity-Preserving Network and
Knowledge Distillation [12.090322373964124]
クロスレゾリューション顔認識は、現代の深層顔認識システムにとって難しい問題である。
本稿では,低分解能画像の低周波成分に蓄積される識別情報にネットワークを集中させる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-15T14:52:46Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Parameter-Efficient and Student-Friendly Knowledge Distillation [83.56365548607863]
本稿では, PESF-KDというパラメータ効率と学生に優しい知識蒸留法を提案し, 効率的かつ十分な知識伝達を実現する。
各種ベンチマーク実験により,PESF-KDは,高度オンライン蒸留法と比較して,競争力のある結果を得ながら,トレーニングコストを大幅に削減できることが示された。
論文 参考訳(メタデータ) (2022-05-28T16:11:49Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。