論文の概要: DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object
Detection
- arxiv url: http://arxiv.org/abs/2310.01393v1
- Date: Mon, 2 Oct 2023 17:52:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 20:18:24.971518
- Title: DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object
Detection
- Title(参考訳): DST-Det: オープンボキャブラリ物体検出のための簡易動的自己訓練
- Authors: Shilin Xu, Xiangtai Li, Size Wu, Wenwei Zhang, Yining Li, Guangliang
Cheng, Yunhai Tong, Kai Chen, Chen Change Loy
- Abstract要約: Open-vocabulary Object Detection (OVOD) は、トレーニング中に観察されるカテゴリ以上のオブジェクトを検出することを目的としている。
この研究は、事前訓練された視覚言語モデルのゼロショット分類能力を活用する、単純で効果的な戦略を示す。
- 参考スコア(独自算出の注目度): 83.57616404714172
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Open-vocabulary object detection (OVOD) aims to detect the objects beyond the
set of categories observed during training. This work presents a simple yet
effective strategy that leverages the zero-shot classification ability of
pre-trained vision-language models (VLM), such as CLIP, to classify proposals
for all possible novel classes directly. Unlike previous works that ignore
novel classes during training and rely solely on the region proposal network
(RPN) for novel object detection, our method selectively filters proposals
based on specific design criteria. The resulting sets of identified proposals
serve as pseudo-labels for novel classes during the training phase. It enables
our self-training strategy to improve the recall and accuracy of novel classes
in a self-training manner without requiring additional annotations or datasets.
We further propose a simple offline pseudo-label generation strategy to refine
the object detector. Empirical evaluations on three datasets, including LVIS,
V3Det, and COCO, demonstrate significant improvements over the baseline
performance without incurring additional parameters or computational costs
during inference. In particular, compared with previous F-VLM, our method
achieves a 1.7-2.0% improvement on LVIS dataset and 2.3-3.8% improvement on the
recent challenging V3Det dataset. Our method also boosts the strong baseline by
6% mAP on COCO. The code and models will be publicly available at
https://github.com/xushilin1/dst-det.
- Abstract(参考訳): open-vocabulary object detection (ovod) は、トレーニング中に観測されるカテゴリを超えるオブジェクトを検出することを目的としている。
この研究は、CLIPのような事前訓練された視覚言語モデル(VLM)のゼロショット分類能力を生かした、シンプルだが効果的な戦略を示し、全ての新しいクラスの提案を直接分類する。
学習中に新しいクラスを無視し、新しいオブジェクト検出のための地域提案ネットワーク(RPN)にのみ依存する従来の研究とは異なり、本手法は特定の設計基準に基づいて提案を選択的にフィルタリングする。
特定された提案のセットは、トレーニングフェーズ中に新しいクラスの擬似ラベルとして機能する。
これは、追加のアノテーションやデータセットを必要とせずに、自己学習方法で新しいクラスのリコールと正確性を向上させるためのセルフトレーニング戦略を可能にします。
さらに,物体検出装置を洗練するための簡易オフライン擬似ラベル生成戦略を提案する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、推論中に追加のパラメータや計算コストを発生させることなく、ベースラインのパフォーマンスを大幅に改善したことを示している。
特に,従来のF-VLMと比較して,LVISデータセットの1.7~2.0%,最近の挑戦的なV3Detデータセットの2.3~3.8%の改善を実現している。
また,COCO濃度を6%向上させる方法も提案した。
コードとモデルはhttps://github.com/xushilin1/dst-detで公開されている。
関連論文リスト
- BoostAdapter: Improving Vision-Language Test-Time Adaptation via Regional Bootstrapping [64.8477128397529]
本稿では,テスト時間適応フレームワークを提案する。
我々は、インスタンスに依存しない履歴サンプルとインスタンスを意識したブースティングサンプルから特徴を検索するための軽量なキー値メモリを維持している。
理論的には,本手法の背後にある合理性を正当化し,アウト・オブ・ディストリビューションとクロスドメイン・データセットの両方において,その有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-20T15:58:43Z) - Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - Robust and Explainable Fine-Grained Visual Classification with Transfer Learning: A Dual-Carriageway Framework [0.799543372823325]
我々は、Dual-Carriageway Framework (DCF) という自動ベストスーツトレーニングソリューション検索フレームワークを提案する。
3つの畳み込みニューラルネットワーク(ResNet18、ResNet34、Inception-v3)を用いてDCFの有効性を検証する。
その結果、既存のデータセットと新しいデータセットでそれぞれ2.13%、1.23%の微調整パスのパフォーマンスが向上した。
論文 参考訳(メタデータ) (2024-05-09T15:41:10Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Incremental Few-Shot Object Detection via Simple Fine-Tuning Approach [6.808112517338073]
iFSDは、いくつかの例を使って、ベースクラスを再考することなく、新しいクラスを漸進的に学習する。
そこで本研究では,iFSDのための単純な微調整手法であるIncrmental Two-stage Fine-tuning Approach (iTFA)を提案する。
iTFAはCOCOの競争性能を達成し、LVISデータセットのメタラーニング手法よりも30%高いAP精度を示す。
論文 参考訳(メタデータ) (2023-02-20T05:48:46Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。