論文の概要: Smooth and Stepwise Self-Distillation for Object Detection
- arxiv url: http://arxiv.org/abs/2303.05015v1
- Date: Thu, 9 Mar 2023 03:33:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:11:02.705125
- Title: Smooth and Stepwise Self-Distillation for Object Detection
- Title(参考訳): 物体検出のためのスムースとステップワイズ自己蒸留
- Authors: Jieren Deng, Xin Zhou, Hao Tian, Zhihong Pan, Derek Aguiar
- Abstract要約: 自己蒸留は近年,物体検出の最先端性能を実現している。
オブジェクト検出のためのSmooth and Stepwise Self-Distillation (SSSD)を提案する。
- 参考スコア(独自算出の注目度): 11.434687380519128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distilling the structured information captured in feature maps has
contributed to improved results for object detection tasks, but requires
careful selection of baseline architectures and substantial pre-training.
Self-distillation addresses these limitations and has recently achieved
state-of-the-art performance for object detection despite making several
simplifying architectural assumptions. Building on this work, we propose Smooth
and Stepwise Self-Distillation (SSSD) for object detection. Our SSSD
architecture forms an implicit teacher from object labels and a feature pyramid
network backbone to distill label-annotated feature maps using Jensen-Shannon
distance, which is smoother than distillation losses used in prior work. We
additionally add a distillation coefficient that is adaptively configured based
on the learning rate. We extensively benchmark SSSD against a baseline and two
state-of-the-art object detector architectures on the COCO dataset by varying
the coefficients and backbone and detector networks. We demonstrate that SSSD
achieves higher average precision in most experimental settings, is robust to a
wide range of coefficients, and benefits from our stepwise distillation
procedure.
- Abstract(参考訳): 特徴マップでキャプチャされた構造化情報は、オブジェクト検出タスクの改善に寄与しているが、ベースラインアーキテクチャの慎重に選択と実質的な事前学習が必要である。
自己蒸留はこれらの制限に対処し、最近、いくつかのアーキテクチャ上の仮定を単純化したにもかかわらず、オブジェクト検出の最先端のパフォーマンスを達成した。
本研究では,物体検出のためのSmooth and Stepwise Self-Distillation (SSSD)を提案する。
私たちのsssdアーキテクチャは、オブジェクトラベルからの暗黙的な教師と特徴ピラミッドネットワークバックボーンを形成し、jensen-shannon距離を使用してラベル注釈特徴マップを蒸留します。
さらに, 学習率に基づいて適応的に設定された蒸留係数を付加する。
我々は,COCOデータセット上のベースラインと2つの最先端オブジェクト検出器アーキテクチャに対して,係数とバックボーンおよび検出器ネットワークを変化させることで,SSSDを広範囲にベンチマークする。
sssdは,ほとんどの実験環境では高い平均精度を達成し,幅広い係数に頑健であり,ステップワイズ蒸留法から得られる利点を実証した。
関連論文リスト
- Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Better Sampling, towards Better End-to-end Small Object Detection [7.7473020808686694]
限られた特性と高密度と相互重なり合いのため、小さな物体検出は不満足なままである。
エンド・ツー・エンド・フレームワークにおけるサンプリングの強化手法を提案する。
我々のモデルは、VisDroneデータセット上での最先端(SOTA)よりも平均精度(AP)が2.9%向上することを示す。
論文 参考訳(メタデータ) (2024-05-17T04:37:44Z) - Importance-Aware Adaptive Dataset Distillation [53.79746115426363]
ディープラーニングモデルの開発は、大規模データセットの可用性によって実現されている。
データセットの蒸留は、大きな元のデータセットから必須情報を保持するコンパクトなデータセットを合成することを目的としている。
本稿では, 蒸留性能を向上する重要適応型データセット蒸留(IADD)法を提案する。
論文 参考訳(メタデータ) (2024-01-29T03:29:39Z) - SteinDreamer: Variance Reduction for Text-to-3D Score Distillation via Stein Identity [70.32101198891465]
スコア蒸留における勾配推定は, 分散度が高いことが示唆された。
本稿では,Stin Score Distillation (SSD) と呼ばれる,スコア蒸留の分散を低減するための,より一般的な解を提案する。
我々はSteinDreamerがより安定した勾配更新により既存の方法よりも高速に収束できることを実証した。
論文 参考訳(メタデータ) (2023-12-31T23:04:25Z) - Adversarial Score Distillation: When score distillation meets GAN [3.2794321281011394]
既存のスコア蒸留をWGAN(Wasserstein Generative Adversarial Network)パラダイムで解読する。
WGANのパラダイムでは、既存のスコア蒸留は固定された準最適判別器を使うか、不完全判別器の最適化を行うかのいずれかである。
本稿では、最適な判別器を維持し、完全な最適化目標を用いて更新するASD(Adversarial Score Distillation)を提案する。
論文 参考訳(メタデータ) (2023-12-01T17:20:47Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - AMD: Adaptive Masked Distillation for Object [8.668808292258706]
本研究では,物体検出のための空間チャネル適応型マスク蒸留(AMD)ネットワークを提案する。
学生のネットワークチャネルを適応させるために、シンプルで効率的なモジュールを使用します。
提案手法により, 学生ネットワークは41.3%, 42.4%, 42.7%mAPスコアを報告した。
論文 参考訳(メタデータ) (2023-01-31T10:32:13Z) - Knowledge Distillation for Oriented Object Detection on Aerial Images [1.827510863075184]
本稿では,KD-RNetの知識蒸留による空中画像の回転物体検出のためのモデル圧縮手法を提案する。
大規模空中物体検出データセット(DOTA)による実験結果から,提案したKD-RNetモデルにより,パラメータ数を削減した平均値精度(mAP)が向上し,同時にKD-RNetは,基底アノテーションと高い重なり合う高品質検出を提供することで,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T14:24:16Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。