論文の概要: Pixel-Wise Contrastive Distillation
- arxiv url: http://arxiv.org/abs/2211.00218v1
- Date: Tue, 1 Nov 2022 02:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 14:00:22.275023
- Title: Pixel-Wise Contrastive Distillation
- Title(参考訳): Pixel-Wiseコントラスト蒸留
- Authors: Junqiang Huang and Zichao Guo
- Abstract要約: 本稿では,高密度予測タスクに指定された最初の画素レベルの自己監督蒸留フレームワークを提案する。
我々のアプローチはPixel-Wise Contrastive Distillation (PCD)と呼ばれ、学生や教師の出力特徴マップから対応するピクセルを引き付けることで知識を蒸留する。
- 参考スコア(独自算出の注目度): 3.8073142980733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first pixel-level self-supervised distillation framework
specified for dense prediction tasks. Our approach, called Pixel-Wise
Contrastive Distillation (PCD), distills knowledge by attracting the
corresponding pixels from student's and teacher's output feature maps. This
pixel-to-pixel distillation demands for maintaining the spatial information of
teacher's output. We propose a SpatialAdaptor that adapts the well-trained
projection/prediction head of the teacher used to encode vectorized features to
processing 2D feature maps. SpatialAdaptor enables more informative pixel-level
distillation, yielding a better student for dense prediction tasks. Besides, in
light of the inadequate effective receptive fields of small models, we utilize
a plug-in multi-head self-attention module to explicitly relate the pixels of
student's feature maps. Overall, our PCD outperforms previous self-supervised
distillation methods on various dense prediction tasks. A backbone of ResNet-18
distilled by PCD achieves $37.4$ AP$^\text{bbox}$ and $34.0$ AP$^{mask}$ with
Mask R-CNN detector on COCO dataset, emerging as the first pre-training method
surpassing the supervised pre-trained counterpart.
- Abstract(参考訳): 本稿では,高密度予測タスクに指定された最初の画素レベルの自己監督蒸留フレームワークを提案する。
提案手法はpixel-wise contrastive distillation (pcd) と呼ばれ,生徒と教師の出力特徴マップから対応する画素を引き付けることで知識を蒸留する。
このピクセル対ピクセル蒸留は教師の出力の空間情報を維持する必要がある。
本研究では,ベクトル化特徴を符号化する教師の熟達した投影/予測ヘッドを2次元特徴マップの処理に適応する空間適応器を提案する。
spatialadaptorはより有益なピクセルレベルの蒸留を可能にし、密集した予測タスクのためのより良い学生をもたらす。
さらに,小型モデルの有効受容領域が不十分であることを踏まえ,プラグイン型マルチヘッド自己認識モジュールを用いて,学生の特徴マップの画素を明示的に関連付ける。
総じて,pcdは,様々な濃密な予測タスクにおいて,従来の自己教師付き蒸留法を上回っている。
PCDによって蒸留されたResNet-18のバックボーンは37.4$ AP$^\text{bbox}$と34.0$ AP$^{mask}$でCOCOデータセット上のMask R-CNN検出器で達成され、教師付き事前訓練法を上回る最初の事前学習法として登場した。
関連論文リスト
- PromptKD: Unsupervised Prompt Distillation for Vision-Language Models [40.858721356497085]
本稿では,教師モデルの知識を軽量ターゲットモデルに伝達することを目的とした,教師なしドメインプロンプト蒸留フレームワークを提案する。
本フレームワークは,2つの異なる段階から構成される。初期段階では,ドメイン(フェーショット)ラベルを用いて,大規模なCLIP教師モデルを事前訓練する。
その後の段階では、記憶されたクラスベクトルを教師と生徒の画像エンコーダ間で共有し、予測ロジットを算出する。
論文 参考訳(メタデータ) (2024-03-05T08:53:30Z) - Identifying Important Group of Pixels using Interactions [5.2980803808373516]
予測信頼度の高い画素群を効率よく同定する手法であるMoXIを提案する。
提案手法は,個々の画素の影響を考慮し,ゲーム理論の概念,シェープ値,相互作用を用いる。
論文 参考訳(メタデータ) (2024-01-08T10:06:52Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Masked Distillation with Receptive Tokens [44.99434415373963]
特徴写像からの蒸留は、密集した予測タスクにかなり効果的である。
特徴マップ内の興味のピクセルをローカライズするために,受容トークンと呼ばれる学習可能な埋め込みを導入する。
MasKD と呼ばれる手法はシンプルで実用的であり,アプリケーション内でのタスクの事前処理は不要である。
論文 参考訳(メタデータ) (2022-05-29T07:32:00Z) - Knowledge Distillation via the Target-aware Transformer [83.03578375615614]
本稿では,新しい一対一空間マッチング知識蒸留手法を提案する。
具体的には,教師の特徴のそれぞれのピクセルを,生徒の特徴の空間的位置すべてに蒸留する。
我々のアプローチは、様々なコンピュータビジョンベンチマークにおいて最先端の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2022-05-22T10:26:54Z) - Aligning Logits Generatively for Principled Black-Box Knowledge Distillation [49.43567344782207]
Black-Box Knowledge Distillation (B2KD)は、クラウドからエッジへのモデル圧縮において、サーバ上にホストされる見えないデータとモデルによって定式化された問題である。
民営化と蒸留による2段階のワークフローを形式化する。
そこで本研究では,ブラックボックスの煩雑なモデルを軽量に蒸留するKD (MEKD) を新たに提案する。
論文 参考訳(メタデータ) (2022-05-21T02:38:16Z) - Pixel Distillation: A New Knowledge Distillation Scheme for Low-Resolution Image Recognition [124.80263629921498]
アーキテクチャ制約を同時に破りながら知識蒸留を入力レベルまで拡張するPixel Distillationを提案する。
このようなスキームは、ネットワークアーキテクチャと画像品質の両方をリソースの全体的な要求に応じて調整できるため、展開のための柔軟なコスト制御を実現することができる。
論文 参考訳(メタデータ) (2021-12-17T14:31:40Z) - Deep Structured Instance Graph for Distilling Object Detectors [82.16270736573176]
本稿では,検出システム内の情報を利用して,検出知識の蒸留を容易にするための簡単な知識構造を提案する。
我々は,1段と2段の両方の検出器上で,多様な学生-教師ペアによるCOCOオブジェクト検出の課題に対して,新しい最先端の成果を達成した。
論文 参考訳(メタデータ) (2021-09-27T08:26:00Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。