論文の概要: Pixel-Wise Contrastive Distillation
- arxiv url: http://arxiv.org/abs/2211.00218v3
- Date: Tue, 16 Apr 2024 13:22:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 03:10:06.470937
- Title: Pixel-Wise Contrastive Distillation
- Title(参考訳): Pixel-Wiseコントラスト蒸留
- Authors: Junqiang Huang, Zichao Guo,
- Abstract要約: 本稿では,高密度予測タスクに相応しい画素レベルの自己監督蒸留フレームワークを提案する。
提案手法は, 学生と教師の出力特徴マップから対応する画素を抽出し, 知識を抽出する。
- 参考スコア(独自算出の注目度): 3.274323556083613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple but effective pixel-level self-supervised distillation framework friendly to dense prediction tasks. Our method, called Pixel-Wise Contrastive Distillation (PCD), distills knowledge by attracting the corresponding pixels from student's and teacher's output feature maps. PCD includes a novel design called SpatialAdaptor which ``reshapes'' a part of the teacher network while preserving the distribution of its output features. Our ablation experiments suggest that this reshaping behavior enables more informative pixel-to-pixel distillation. Moreover, we utilize a plug-in multi-head self-attention module that explicitly relates the pixels of student's feature maps to enhance the effective receptive field, leading to a more competitive student. PCD \textbf{outperforms} previous self-supervised distillation methods on various dense prediction tasks. A backbone of \mbox{ResNet-18-FPN} distilled by PCD achieves $37.4$ AP$^\text{bbox}$ and $34.0$ AP$^\text{mask}$ on COCO dataset using the detector of \mbox{Mask R-CNN}. We hope our study will inspire future research on how to pre-train a small model friendly to dense prediction tasks in a self-supervised fashion.
- Abstract(参考訳): 本稿では,高密度予測タスクに親しみやすい簡易だが効果的な画素レベルの自己監督蒸留フレームワークを提案する。
提案手法は, 学生と教師の出力特徴マップから対応する画素を抽出し, 知識を抽出する。
PCDにはSpatialAdaptorと呼ばれる新しいデザインが含まれており、これは教師ネットワークの一部であり、出力機能の分布を保存している。
アブレーション実験により, この変形挙動により, より情報的な画素間蒸留が可能であることが示唆された。
さらに,学生の特徴マップの画素を明示的に関連づけたプラグイン型マルチヘッド自己認識モジュールを用いて,効果的な受容場を向上し,より競争力のある学生を輩出する。
PCD \textbf{outperforms} 以前の高密度予測タスクにおける自己教師型蒸留法。
PCDで蒸留した \mbox{ResNet-18-FPN} のバックボーンは、$37.4$ AP$^\text{bbox}$と$34.0$ AP$^\text{mask}$をCOCOデータセット上で達成している。
我々の研究は、自己管理的な方法で、密集予測タスクに親しみやすい小さなモデルを事前訓練する方法について、将来の研究に刺激を与えることを期待している。
関連論文リスト
- PromptKD: Unsupervised Prompt Distillation for Vision-Language Models [40.858721356497085]
本稿では,教師モデルの知識を軽量ターゲットモデルに伝達することを目的とした,教師なしドメインプロンプト蒸留フレームワークを提案する。
本フレームワークは,2つの異なる段階から構成される。初期段階では,ドメイン(フェーショット)ラベルを用いて,大規模なCLIP教師モデルを事前訓練する。
その後の段階では、記憶されたクラスベクトルを教師と生徒の画像エンコーダ間で共有し、予測ロジットを算出する。
論文 参考訳(メタデータ) (2024-03-05T08:53:30Z) - Identifying Important Group of Pixels using Interactions [5.2980803808373516]
予測信頼度の高い画素群を効率よく同定する手法であるMoXIを提案する。
提案手法は,個々の画素の影響を考慮し,ゲーム理論の概念,シェープ値,相互作用を用いる。
論文 参考訳(メタデータ) (2024-01-08T10:06:52Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Masked Distillation with Receptive Tokens [44.99434415373963]
特徴写像からの蒸留は、密集した予測タスクにかなり効果的である。
特徴マップ内の興味のピクセルをローカライズするために,受容トークンと呼ばれる学習可能な埋め込みを導入する。
MasKD と呼ばれる手法はシンプルで実用的であり,アプリケーション内でのタスクの事前処理は不要である。
論文 参考訳(メタデータ) (2022-05-29T07:32:00Z) - Knowledge Distillation via the Target-aware Transformer [83.03578375615614]
本稿では,新しい一対一空間マッチング知識蒸留手法を提案する。
具体的には,教師の特徴のそれぞれのピクセルを,生徒の特徴の空間的位置すべてに蒸留する。
我々のアプローチは、様々なコンピュータビジョンベンチマークにおいて最先端の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2022-05-22T10:26:54Z) - Aligning Logits Generatively for Principled Black-Box Knowledge Distillation [49.43567344782207]
Black-Box Knowledge Distillation (B2KD)は、クラウドからエッジへのモデル圧縮において、サーバ上にホストされる見えないデータとモデルによって定式化された問題である。
民営化と蒸留による2段階のワークフローを形式化する。
そこで本研究では,ブラックボックスの煩雑なモデルを軽量に蒸留するKD (MEKD) を新たに提案する。
論文 参考訳(メタデータ) (2022-05-21T02:38:16Z) - Pixel Distillation: A New Knowledge Distillation Scheme for Low-Resolution Image Recognition [124.80263629921498]
アーキテクチャ制約を同時に破りながら知識蒸留を入力レベルまで拡張するPixel Distillationを提案する。
このようなスキームは、ネットワークアーキテクチャと画像品質の両方をリソースの全体的な要求に応じて調整できるため、展開のための柔軟なコスト制御を実現することができる。
論文 参考訳(メタデータ) (2021-12-17T14:31:40Z) - Deep Structured Instance Graph for Distilling Object Detectors [82.16270736573176]
本稿では,検出システム内の情報を利用して,検出知識の蒸留を容易にするための簡単な知識構造を提案する。
我々は,1段と2段の両方の検出器上で,多様な学生-教師ペアによるCOCOオブジェクト検出の課題に対して,新しい最先端の成果を達成した。
論文 参考訳(メタデータ) (2021-09-27T08:26:00Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。