論文の概要: CastDet: Toward Open Vocabulary Aerial Object Detection with
CLIP-Activated Student-Teacher Learning
- arxiv url: http://arxiv.org/abs/2311.11646v1
- Date: Mon, 20 Nov 2023 10:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:16:23.322763
- Title: CastDet: Toward Open Vocabulary Aerial Object Detection with
CLIP-Activated Student-Teacher Learning
- Title(参考訳): CastDet: CLIP-Activated Students-Teacher Learning を用いたオープン語彙空中検出に向けて
- Authors: Yan Li, Weiwei Guo, Dunyun He, Jiaqi Zhou, Yuze Gao, Wenxian Yu
- Abstract要約: 本稿では,CLIP-activated students-Teacher Open-vocabulary Object DetectionフレームワークであるCastDetを提案する。
我々のアプローチは、新しいオブジェクトの提案と分類を促進する。
実験の結果,CastDetはより優れた開語彙検出性能が得られた。
- 参考スコア(独自算出の注目度): 10.810711596013244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in aerial images is a pivotal task for various earth
observation applications, whereas current algorithms learn to detect only a
pre-defined set of object categories demanding sufficient bounding-box
annotated training samples and fail to detect novel object categories. In this
paper, we consider open-vocabulary object detection (OVD) in aerial images that
enables the characterization of new objects beyond training categories on the
earth surface without annotating training images for these new categories. The
performance of OVD depends on the quality of class-agnostic region proposals
and pseudo-labels that can generalize well to novel object categories. To
simultaneously generate high-quality proposals and pseudo-labels, we propose
CastDet, a CLIP-activated student-teacher open-vocabulary object Detection
framework. Our end-to-end framework within the student-teacher mechanism
employs the CLIP model as an extra omniscient teacher of rich knowledge into
the student-teacher self-learning process. By doing so, our approach boosts
novel object proposals and classification. Furthermore, we design a dynamic
label queue technique to maintain high-quality pseudo labels during batch
training and mitigate label imbalance. We conduct extensive experiments on
multiple existing aerial object detection datasets, which are set up for the
OVD task. Experimental results demonstrate our CastDet achieving superior
open-vocabulary detection performance, e.g., reaching 40.0 HM (Harmonic Mean),
which outperforms previous methods Detic/ViLD by 26.9/21.1 on the VisDroneZSD
dataset.
- Abstract(参考訳): 航空画像における物体検出は、様々な地球観測アプリケーションにおいて重要な課題であるが、現在のアルゴリズムは、十分なバウンディングボックスアノテートトレーニングサンプルを必要とする対象カテゴリの事前定義されたセットのみを検出し、新しい対象カテゴリを検出できないことを学習している。
本稿では,地球表面のトレーニングカテゴリを超えて,これらの新しいカテゴリのトレーニングイメージに注釈を付けることなく,新しいオブジェクトのキャラクタリゼーションを可能にする空中画像のオープンボキャブラリオブジェクト検出(OVD)について考察する。
OVDの性能は、クラスに依存しない領域の提案や、新しいオブジェクトカテゴリをうまく一般化できる擬似ラベルの品質に依存する。
高品質な提案と疑似ラベルを同時に作成するために,クリップアクティベートした学生教師によるオープンボキャブラリー物体検出フレームワークであるcastdetを提案する。
学生-教師のメカニズムにおけるエンドツーエンドのフレームワークは、CLIPモデルを学生-教師の自己学習プロセスにおいて、豊富な知識の専門的な教師として活用する。
このアプローチは、新しいオブジェクトの提案と分類を促進する。
さらに,バッチトレーニング中に高品質な擬似ラベルを維持するための動的ラベルキュー手法を設計し,ラベルの不均衡を緩和する。
我々はOVDタスク用に設定された複数の既存の空中物体検出データセットについて広範な実験を行った。
実験の結果、VesDroneZSDデータセット上でDetic/ViLDを26.9/21.1で上回る40.0HM(Harmonic Mean)に達するなど、より優れたオープン語彙検出性能を実現した。
関連論文リスト
- DetCLIPv3: Towards Versatile Generative Open-vocabulary Object Detection [111.68263493302499]
DetCLIPv3は、オープンボキャブラリオブジェクト検出と階層ラベルの両方で優れた高性能検出器である。
DetCLIPv3は,1)Versatileモデルアーキテクチャ,2)高情報密度データ,3)効率的なトレーニング戦略の3つのコア設計によって特徴付けられる。
DetCLIPv3は、GLIPv2, GroundingDINO, DetCLIPv2をそれぞれ18.0/19.6/6 APで上回り、優れたオープン語彙検出性能を示す。
論文 参考訳(メタデータ) (2024-04-14T11:01:44Z) - Generative Region-Language Pretraining for Open-Ended Object Detection [55.42484781608621]
我々は,高密度物体を検出し,その名前を自由形式の方法で生成できるGenerateUというフレームワークを提案する。
本フレームワークはオープン語彙オブジェクト検出手法GLIPに匹敵する結果が得られる。
論文 参考訳(メタデータ) (2024-03-15T10:52:39Z) - Exploring Robust Features for Few-Shot Object Detection in Satellite
Imagery [17.156864650143678]
従来の2段階アーキテクチャに基づく数発の物体検出器を開発した。
大規模な事前訓練モデルを使用して、クラス参照の埋め込みやプロトタイプを構築する。
課題と稀なオブジェクトを含む2つのリモートセンシングデータセットの評価を行う。
論文 参考訳(メタデータ) (2024-03-08T15:20:27Z) - Open-Vocabulary Camouflaged Object Segmentation [66.94945066779988]
OVCOS(Open-vocabulary camouflaged Object segmentation)を導入した。
我々は11,483個の手選択画像とそれに対応するオブジェクトクラスを含む大規模複合シーンデータセット(textbfOVCamo)を構築した。
クラスセマンティック知識の指導とエッジ情報と深度情報からの視覚構造的手がかりの補足を統合することにより、提案手法は効率よくカモフラージュされたオブジェクトを捕捉できる。
論文 参考訳(メタデータ) (2023-11-19T06:00:39Z) - Improved Region Proposal Network for Enhanced Few-Shot Object Detection [23.871860648919593]
Few-shot Object Detection (FSOD) メソッドは、古典的なオブジェクト検出手法の限界に対する解決策として登場した。
FSODトレーニング段階において,未ラベルの新規物体を正のサンプルとして検出し,利用するための半教師付きアルゴリズムを開発した。
地域提案ネットワーク(RPN)の階層的サンプリング戦略の改善により,大規模オブジェクトに対するオブジェクト検出モデルの認識が向上する。
論文 参考訳(メタデータ) (2023-08-15T02:35:59Z) - Open-Vocabulary Object Detection using Pseudo Caption Labels [3.260777306556596]
よりきめ細かいラベルは、新しいオブジェクトに関するより豊かな知識を引き出すために必要である、と我々は主張する。
分離されたVisualGenomeデータセットでトレーニングされた最良のモデルは、APが34.5、APrが30.6で、最先端のパフォーマンスに匹敵する。
論文 参考訳(メタデータ) (2023-03-23T05:10:22Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Open-Vocabulary DETR with Conditional Matching [86.1530128487077]
OV-DETRは、DETRに基づくオープンボキャブラリ検出器である。
クラス名や模範画像が与えられた任意のオブジェクトを検出できる。
芸術の現在の状態よりも、ささいな改善を達成している。
論文 参考訳(メタデータ) (2022-03-22T16:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。