論文の概要: Distilling Object Detectors With Global Knowledge
- arxiv url: http://arxiv.org/abs/2210.09022v1
- Date: Mon, 17 Oct 2022 12:44:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:46:29.449452
- Title: Distilling Object Detectors With Global Knowledge
- Title(参考訳): グローバル知識によるオブジェクト検出器の蒸留
- Authors: Sanli Tang, Zhongyu Zhang, Zhanzhan Cheng, Jing Lu, Yunlu Xu, Yi Niu
and Fan He
- Abstract要約: 既存の手法では、知識を各インスタンスの特徴またはそれらの関係とみなしており、これは教師モデルからのみインスタンスレベルの知識である。
より内在的なアプローチは、教師と学生検出器の2つの特徴空間における共通基底ベクトル群w.r.t.のインスタンスの表現を測定することである。
提案手法は,種々のデータセットのバックボーンを用いたオブジェクト検出器の蒸留に最適であることを示す。
- 参考スコア(独自算出の注目度): 30.67375886569278
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Knowledge distillation learns a lightweight student model that mimics a
cumbersome teacher. Existing methods regard the knowledge as the feature of
each instance or their relations, which is the instance-level knowledge only
from the teacher model, i.e., the local knowledge. However, the empirical
studies show that the local knowledge is much noisy in object detection tasks,
especially on the blurred, occluded, or small instances. Thus, a more intrinsic
approach is to measure the representations of instances w.r.t. a group of
common basis vectors in the two feature spaces of the teacher and the student
detectors, i.e., global knowledge. Then, the distilling algorithm can be
applied as space alignment. To this end, a novel prototype generation module
(PGM) is proposed to find the common basis vectors, dubbed prototypes, in the
two feature spaces. Then, a robust distilling module (RDM) is applied to
construct the global knowledge based on the prototypes and filtrate noisy
global and local knowledge by measuring the discrepancy of the representations
in two feature spaces. Experiments with Faster-RCNN and RetinaNet on PASCAL and
COCO datasets show that our method achieves the best performance for distilling
object detectors with various backbones, which even surpasses the performance
of the teacher model. We also show that the existing methods can be easily
combined with global knowledge and obtain further improvement. Code is
available: https://github.com/hikvision-research/DAVAR-Lab-ML.
- Abstract(参考訳): 知識蒸留は、面倒な教師を模倣する軽量の学生モデルを学ぶ。
既存の方法は、知識を各インスタンスの特徴またはそれらの関係とみなし、それは教師モデルからのみインスタンスレベルの知識である、すなわちローカルな知識である。
しかし、実験的な研究では、局所的な知識はオブジェクト検出タスクにおいて、特にぼやけた、遮蔽された、あるいは小さなインスタンスにおいて、かなりノイズが多いことが示されている。
したがって、より本質的なアプローチは、教師と生徒検出器の2つの特徴空間、すなわち大域的知識における共通基底ベクトル群の例の表現を測定することである。
そして、蒸留アルゴリズムを空間アライメントとして適用することができる。
この目的のために、2つの特徴空間において、プロトタイプと呼ばれる共通基底ベクトルを見つけるために、新しいプロトタイプ生成モジュール(PGM)を提案する。
次に、2つの特徴空間における表現の相違を測定することにより、プロトタイプに基づいて大域的知識を構築するために頑健な蒸留モジュール(RDM)を適用する。
PASCALおよびCOCOデータセット上でのFaster-RCNNおよびRetinaNetを用いた実験により,本手法は,教師モデルの性能を超越した種々のバックボーンを用いた物体検出器の蒸留において,最高の性能を達成できることを示した。
また,既存の手法とグローバル知識を組み合わせることで,さらなる改善が期待できることを示す。
コードはhttps://github.com/hikvision-research/davar-lab-ml。
関連論文リスト
- Open-World Object Detection with Instance Representation Learning [1.8749305679160366]
本研究では,新しい物体を検知し,オープンワールド条件下で意味的にリッチな特徴を抽出できる物体検知器の訓練手法を提案する。
提案手法は頑健で一般化可能な特徴空間を学習し,他のOWODに基づく特徴抽出法よりも優れている。
論文 参考訳(メタデータ) (2024-09-24T13:13:34Z) - Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Efficient Object Detection in Optical Remote Sensing Imagery via
Attention-based Feature Distillation [29.821082433621868]
本研究では,物体検出のための注意型特徴蒸留(AFD)を提案する。
本稿では,背景要素と前景要素を効果的に区別するマルチインスタンスアテンション機構を提案する。
AFDは、他の最先端モデルの性能を効率よく達成する。
論文 参考訳(メタデータ) (2023-10-28T11:15:37Z) - Bidirectional Knowledge Reconfiguration for Lightweight Point Cloud
Analysis [74.00441177577295]
ポイントクラウド分析は計算システムのオーバーヘッドに直面し、モバイルやエッジデバイスでの利用を制限する。
本稿では,軽量点雲モデルのための特徴蒸留について検討する。
本研究では,教師から生徒への情報的文脈的知識を抽出するための双方向知識再構成を提案する。
論文 参考訳(メタデータ) (2023-10-08T11:32:50Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Open-World Object Detection via Discriminative Class Prototype Learning [4.055884768256164]
オープンワールドオブジェクト検出(OWOD)は、オブジェクト検出とインクリメンタルラーニングとオープンセットラーニングを組み合わせた難しい問題である。
OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: オープンワールドオブジェクト検出
論文 参考訳(メタデータ) (2023-02-23T03:05:04Z) - Open World DETR: Transformer based Open World Object Detection [60.64535309016623]
そこで我々は,Deformable DETRに基づくオープンワールドオブジェクト検出のための2段階学習手法Open World DETRを提案する。
モデルのクラス固有のコンポーネントを多視点の自己ラベル戦略と一貫性制約で微調整する。
提案手法は、他の最先端のオープンワールドオブジェクト検出方法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-12-06T13:39:30Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。