論文の概要: Low-Resolution Face Recognition via Adaptable Instance-Relation Distillation
- arxiv url: http://arxiv.org/abs/2409.02049v1
- Date: Tue, 3 Sep 2024 16:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 00:21:46.614924
- Title: Low-Resolution Face Recognition via Adaptable Instance-Relation Distillation
- Title(参考訳): 適応型インスタンス相関蒸留による低分解能顔認識
- Authors: Ruixin Shi, Weijia Guo, Shiming Ge,
- Abstract要約: 低解像度の顔認識は、情報的詳細が欠落しているため、難しい課題である。
近年のアプローチでは、高分解能な手がかりが適切な知識伝達を通じて、低分解能な顔認識を導出できることが証明されている。
低分解能顔認識を容易にするための適応型インスタンス相関蒸留法を提案する。
- 参考スコア(独自算出の注目度): 18.709870458307574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-resolution face recognition is a challenging task due to the missing of informative details. Recent approaches based on knowledge distillation have proven that high-resolution clues can well guide low-resolution face recognition via proper knowledge transfer. However, due to the distribution difference between training and testing faces, the learned models often suffer from poor adaptability. To address that, we split the knowledge transfer process into distillation and adaptation steps, and propose an adaptable instance-relation distillation approach to facilitate low-resolution face recognition. In the approach, the student distills knowledge from high-resolution teacher in both instance level and relation level, providing sufficient cross-resolution knowledge transfer. Then, the learned student can be adaptable to recognize low-resolution faces with adaptive batch normalization in inference. In this manner, the capability of recovering missing details of familiar low-resolution faces can be effectively enhanced, leading to a better knowledge transfer. Extensive experiments on low-resolution face recognition clearly demonstrate the effectiveness and adaptability of our approach.
- Abstract(参考訳): 低解像度の顔認識は、情報的詳細が欠落しているため、難しい課題である。
知識蒸留に基づく最近のアプローチは、高解像度の手がかりが適切な知識伝達を通して、低解像度の顔認識を導出できることを証明している。
しかしながら、トレーニングとテストの面の分布の違いにより、学習されたモデルは適応性の低下に悩まされることが多い。
そこで我々は,知識伝達過程を蒸留・適応段階に分割し,低分解能顔認識を容易にするための適応可能なインスタンス関連蒸留手法を提案する。
提案手法では,高分解能教師からの知識をインスタンスレベルと関係レベルの両方で抽出し,クロスレゾリューションな知識伝達を実現する。
そして、学習した学生は、推論において適応的なバッチ正規化を伴う低解像度の顔を認識するように適応することができる。
このように、慣れ親しんだ低解像度の顔の欠損した詳細を回復する能力は効果的に向上し、より良い知識伝達につながる。
低解像度顔認証に関する広範囲な実験は、我々のアプローチの有効性と適応性を明確に示している。
関連論文リスト
- Efficient Low-Resolution Face Recognition via Bridge Distillation [40.823152928253776]
そこで本研究では,プライベートな高分解能顔に事前訓練された複雑な顔モデルを,低分解能顔認識のための軽量な顔に変換するための橋梁蒸留手法を提案する。
実験結果から,0.21Mパラメータと0.057MBメモリしか持たない低解像度顔を認識する上で,学生モデルが顕著に機能することが確認された。
論文 参考訳(メタデータ) (2024-09-18T08:10:35Z) - Distilling Generative-Discriminative Representations for Very Low-Resolution Face Recognition [19.634712802639356]
非常に低解像度の顔認識は、分解能劣化における情報的な顔の詳細の欠如により困難である。
本稿では, 生成的表現とクロスレゾリューション・アライメント・アライメント・ナレッジ・蒸留を組み合わせた生成的識別的表現蒸留手法を提案する。
提案手法は, 極めて低解像度な面における詳細の欠落の回復を改善し, より優れた知識伝達を実現する。
論文 参考訳(メタデータ) (2024-09-10T09:53:06Z) - Look One and More: Distilling Hybrid Order Relational Knowledge for Cross-Resolution Image Recognition [30.568519905346253]
本稿では,ハイブリッド順序関係知識蒸留による低分解能画像認識を容易にするための教師学生学習手法を提案する。
提案手法は,教師ストリームを高精度に高精細画像を認識するために事前訓練し,教師の行動を模倣して低精細画像の識別を学習し,余分な補助ストリームを橋渡しとして導入し,教師から生徒への知識伝達を支援する。
論文 参考訳(メタデータ) (2024-09-09T07:32:18Z) - Low-Resolution Object Recognition with Cross-Resolution Relational Contrastive Distillation [22.26932361388872]
低分解能物体認識を容易にするクロスレゾリューションリレーショナルコントラスト蒸留法を提案する。
本手法は,学生モデルが教師モデルの動作を模倣することを可能にする。
このようにして、慣れ親しんだ低解像度物体の欠落した詳細を復元する能力を効果的に向上することができる。
論文 参考訳(メタデータ) (2024-09-04T09:21:13Z) - Collaborative Knowledge Infusion for Low-resource Stance Detection [83.88515573352795]
姿勢検出モデルを支援するために、ターゲット関連の知識がしばしば必要である。
低リソース姿勢検出タスクに対する協調的知識注入手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T08:32:14Z) - One-stage Low-resolution Text Recognition with High-resolution Knowledge
Transfer [53.02254290682613]
現在の低解像度テキスト認識のソリューションは、通常2段階のパイプラインに依存している。
本稿では,多段階の知識伝達を実現するための効率的かつ効果的な知識蒸留フレームワークを提案する。
実験の結果、提案されたワンステージパイプラインは、超高解像度ベースの2ステージフレームワークよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-08-05T02:33:45Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Parameter-Efficient and Student-Friendly Knowledge Distillation [83.56365548607863]
本稿では, PESF-KDというパラメータ効率と学生に優しい知識蒸留法を提案し, 効率的かつ十分な知識伝達を実現する。
各種ベンチマーク実験により,PESF-KDは,高度オンライン蒸留法と比較して,競争力のある結果を得ながら,トレーニングコストを大幅に削減できることが示された。
論文 参考訳(メタデータ) (2022-05-28T16:11:49Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Transfer Heterogeneous Knowledge Among Peer-to-Peer Teammates: A Model
Distillation Approach [55.83558520598304]
本研究は, モデル蒸留により, 複数の学生間で経験と伝達値関数を再利用する新しい手法を提案する。
また、異種知識を活用するための効率的な通信プロトコルの設計方法について述べる。
提案するフレームワークである学習・指導カテゴリー強化は,学習の進捗を安定化・加速する上で有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-06T11:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。