論文の概要: Look One and More: Distilling Hybrid Order Relational Knowledge for Cross-Resolution Image Recognition
- arxiv url: http://arxiv.org/abs/2409.05384v1
- Date: Mon, 9 Sep 2024 07:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 15:30:45.234373
- Title: Look One and More: Distilling Hybrid Order Relational Knowledge for Cross-Resolution Image Recognition
- Title(参考訳): 相互解像認識のためのハイブリッド順序関係知識の蒸留
- Authors: Shiming Ge, Kangkai Zhang, Haolin Liu, Yingying Hua, Shengwei Zhao, Xin Jin, Hao Wen,
- Abstract要約: 本稿では,ハイブリッド順序関係知識蒸留による低分解能画像認識を容易にするための教師学生学習手法を提案する。
提案手法は,教師ストリームを高精度に高精細画像を認識するために事前訓練し,教師の行動を模倣して低精細画像の識別を学習し,余分な補助ストリームを橋渡しとして導入し,教師から生徒への知識伝達を支援する。
- 参考スコア(独自算出の注目度): 30.568519905346253
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In spite of great success in many image recognition tasks achieved by recent deep models, directly applying them to recognize low-resolution images may suffer from low accuracy due to the missing of informative details during resolution degradation. However, these images are still recognizable for subjects who are familiar with the corresponding high-resolution ones. Inspired by that, we propose a teacher-student learning approach to facilitate low-resolution image recognition via hybrid order relational knowledge distillation. The approach refers to three streams: the teacher stream is pretrained to recognize high-resolution images in high accuracy, the student stream is learned to identify low-resolution images by mimicking the teacher's behaviors, and the extra assistant stream is introduced as bridge to help knowledge transfer across the teacher to the student. To extract sufficient knowledge for reducing the loss in accuracy, the learning of student is supervised with multiple losses, which preserves the similarities in various order relational structures. In this way, the capability of recovering missing details of familiar low-resolution images can be effectively enhanced, leading to a better knowledge transfer. Extensive experiments on metric learning, low-resolution image classification and low-resolution face recognition tasks show the effectiveness of our approach, while taking reduced models.
- Abstract(参考訳): 近年の深層モデルによって達成された多くの画像認識タスクにおいて大きな成功を収めたにもかかわらず、低解像度画像の認識に直接適用することは、解像度劣化時に情報的詳細が欠如しているために、低精度に悩まされる可能性がある。
しかし、これらの画像は、対応する高解像度画像に精通している被験者には今でも認識可能である。
そこで本研究では,ハイブリット・リレーショナル・リレーショナル・リレーショナル・ナレッジ・蒸留による低解像度画像認識を容易にするための教師学習手法を提案する。
提案手法は,教師ストリームを高精度に高精細画像を認識するために事前訓練し,教師の行動を模倣して低精細画像の識別を学習し,余分な補助ストリームを橋渡しとして導入し,教師から生徒への知識伝達を支援する。
精度の低下を抑えるための十分な知識を抽出するために、学生の学習は複数の損失を伴って監督され、様々な順序関係構造における類似性を保っている。
このように、慣れ親しんだ低解像度画像の欠落した詳細を復元する能力は効果的に向上し、より優れた知識伝達につながる。
距離学習,低分解能画像分類,低分解能顔認識タスクに関する大規模な実験は,縮小モデルを用いて,我々のアプローチの有効性を示した。
関連論文リスト
- Distilling Generative-Discriminative Representations for Very Low-Resolution Face Recognition [19.634712802639356]
非常に低解像度の顔認識は、分解能劣化における情報的な顔の詳細の欠如により困難である。
本稿では, 生成的表現とクロスレゾリューション・アライメント・アライメント・ナレッジ・蒸留を組み合わせた生成的識別的表現蒸留手法を提案する。
提案手法は, 極めて低解像度な面における詳細の欠落の回復を改善し, より優れた知識伝達を実現する。
論文 参考訳(メタデータ) (2024-09-10T09:53:06Z) - Low-Resolution Object Recognition with Cross-Resolution Relational Contrastive Distillation [22.26932361388872]
低分解能物体認識を容易にするクロスレゾリューションリレーショナルコントラスト蒸留法を提案する。
本手法は,学生モデルが教師モデルの動作を模倣することを可能にする。
このようにして、慣れ親しんだ低解像度物体の欠落した詳細を復元する能力を効果的に向上することができる。
論文 参考訳(メタデータ) (2024-09-04T09:21:13Z) - Low-Resolution Face Recognition via Adaptable Instance-Relation Distillation [18.709870458307574]
低解像度の顔認識は、情報的詳細が欠落しているため、難しい課題である。
近年のアプローチでは、高分解能な手がかりが適切な知識伝達を通じて、低分解能な顔認識を導出できることが証明されている。
低分解能顔認識を容易にするための適応型インスタンス相関蒸留法を提案する。
論文 参考訳(メタデータ) (2024-09-03T16:53:34Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - Attention to detail: inter-resolution knowledge distillation [1.927195358774599]
デジタル病理学におけるギガピクセル画像のためのコンピュータビジョンソリューションの開発は、スライド画像全体の大きさによって妨げられる。
近年の文献では, 画像分解能の低下によるモデル性能の向上を目的として, 知識蒸留法が提案されている。
本研究では,トレーニング中に注意マップを組み込むことで,これらの情報を抽出することを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:16:20Z) - Exploring Deep Learning Image Super-Resolution for Iris Recognition [50.43429968821899]
重畳自動エンコーダ(SAE)と畳み込みニューラルネットワーク(CNN)の2つの深層学習単一画像超解法手法を提案する。
精度評価と認識実験により,1.872個の近赤外虹彩画像のデータベースを用いて評価を行い,比較アルゴリズムよりも深層学習の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:57:48Z) - One-stage Low-resolution Text Recognition with High-resolution Knowledge
Transfer [53.02254290682613]
現在の低解像度テキスト認識のソリューションは、通常2段階のパイプラインに依存している。
本稿では,多段階の知識伝達を実現するための効率的かつ効果的な知識蒸留フレームワークを提案する。
実験の結果、提案されたワンステージパイプラインは、超高解像度ベースの2ステージフレームワークよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-08-05T02:33:45Z) - Cross-resolution Face Recognition via Identity-Preserving Network and
Knowledge Distillation [12.090322373964124]
クロスレゾリューション顔認識は、現代の深層顔認識システムにとって難しい問題である。
本稿では,低分解能画像の低周波成分に蓄積される識別情報にネットワークを集中させる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-15T14:52:46Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Learning Student-Friendly Teacher Networks for Knowledge Distillation [50.11640959363315]
本研究では,教師から学生への暗黒知識の伝達を容易にする新しい知識蒸留手法を提案する。
事前教育を受けた教師に与えた学習モデルの効果的な学習方法のほとんどとは対照的に,学生に親しみやすい教師モデルを学ぶことを目的とする。
論文 参考訳(メタデータ) (2021-02-12T07:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。