論文の概要: Low-Resolution Object Recognition with Cross-Resolution Relational Contrastive Distillation
- arxiv url: http://arxiv.org/abs/2409.02555v1
- Date: Wed, 4 Sep 2024 09:21:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 19:30:37.207828
- Title: Low-Resolution Object Recognition with Cross-Resolution Relational Contrastive Distillation
- Title(参考訳): クロスリゾリューション型コントラスト蒸留による低解像度物体認識
- Authors: Kangkai Zhang, Shiming Ge, Ruixin Shi, Dan Zeng,
- Abstract要約: 低分解能物体認識を容易にするクロスレゾリューションリレーショナルコントラスト蒸留法を提案する。
本手法は,学生モデルが教師モデルの動作を模倣することを可能にする。
このようにして、慣れ親しんだ低解像度物体の欠落した詳細を復元する能力を効果的に向上することができる。
- 参考スコア(独自算出の注目度): 22.26932361388872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing objects in low-resolution images is a challenging task due to the lack of informative details. Recent studies have shown that knowledge distillation approaches can effectively transfer knowledge from a high-resolution teacher model to a low-resolution student model by aligning cross-resolution representations. However, these approaches still face limitations in adapting to the situation where the recognized objects exhibit significant representation discrepancies between training and testing images. In this study, we propose a cross-resolution relational contrastive distillation approach to facilitate low-resolution object recognition. Our approach enables the student model to mimic the behavior of a well-trained teacher model which delivers high accuracy in identifying high-resolution objects. To extract sufficient knowledge, the student learning is supervised with contrastive relational distillation loss, which preserves the similarities in various relational structures in contrastive representation space. In this manner, the capability of recovering missing details of familiar low-resolution objects can be effectively enhanced, leading to a better knowledge transfer. Extensive experiments on low-resolution object classification and low-resolution face recognition clearly demonstrate the effectiveness and adaptability of our approach.
- Abstract(参考訳): 低解像度画像における物体の認識は、情報的詳細が欠如しているため難しい課題である。
近年の研究では,高分解能教師モデルから低分解能学生モデルへの知識伝達を,クロスレゾリューション表現の整合化によって効果的に行うことができることが示されている。
しかし、これらのアプローチは、認識されたオブジェクトがトレーニングとテスト画像の間に大きな相違点を示す状況に適応する際の限界に直面している。
本研究では,低分解能物体認識を容易にするクロスレゾリューションリレーショナルコントラスト蒸留法を提案する。
提案手法は,高精細度物体の同定に高精度な教師モデルの動作を模倣することを可能にする。
十分な知識を抽出するために、学生の学習は、対照的な表現空間における様々な関係構造の類似性を保った、対照的な関係蒸留損失によって監督される。
このように、慣れ親しんだ低解像度物体の欠損した詳細を回復する能力は効果的に向上し、より良い知識伝達につながる。
低分解能物体分類と低分解能顔認証に関する大規模な実験は、我々のアプローチの有効性と適応性を明確に示している。
関連論文リスト
- Collaborative Knowledge Infusion for Low-resource Stance Detection [83.88515573352795]
姿勢検出モデルを支援するために、ターゲット関連の知識がしばしば必要である。
低リソース姿勢検出タスクに対する協調的知識注入手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T08:32:14Z) - Attention to detail: inter-resolution knowledge distillation [1.927195358774599]
デジタル病理学におけるギガピクセル画像のためのコンピュータビジョンソリューションの開発は、スライド画像全体の大きさによって妨げられる。
近年の文献では, 画像分解能の低下によるモデル性能の向上を目的として, 知識蒸留法が提案されている。
本研究では,トレーニング中に注意マップを組み込むことで,これらの情報を抽出することを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:16:20Z) - One-stage Low-resolution Text Recognition with High-resolution Knowledge
Transfer [53.02254290682613]
現在の低解像度テキスト認識のソリューションは、通常2段階のパイプラインに依存している。
本稿では,多段階の知識伝達を実現するための効率的かつ効果的な知識蒸留フレームワークを提案する。
実験の結果、提案されたワンステージパイプラインは、超高解像度ベースの2ステージフレームワークよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-08-05T02:33:45Z) - Cross-resolution Face Recognition via Identity-Preserving Network and
Knowledge Distillation [12.090322373964124]
クロスレゾリューション顔認識は、現代の深層顔認識システムにとって難しい問題である。
本稿では,低分解能画像の低周波成分に蓄積される識別情報にネットワークを集中させる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-15T14:52:46Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - Multi Scale Identity-Preserving Image-to-Image Translation Network for
Low-Resolution Face Recognition [7.6702700993064115]
本稿では,画像から画像へ変換する深層ニューラルネットワークを提案する。
アイデンティティ関連の情報を保存しながら、非常に低解像度の顔を高解像度の顔に超解き放つことができる。
論文 参考訳(メタデータ) (2020-10-23T09:21:06Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。