論文の概要: Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection
- arxiv url: http://arxiv.org/abs/2110.15017v1
- Date: Thu, 28 Oct 2021 10:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:26:16.380593
- Title: Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection
- Title(参考訳): インザ・ウィルドデータを用いたインクリメンタル物体検出のための非共起ブリッジ
- Authors: Na Dong, Yongqiang Zhang, Mingli Ding, Gim Hee Lee
- Abstract要約: 物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
- 参考スコア(独自算出の注目度): 56.22467011292147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep networks have shown remarkable results in the task of object detection.
However, their performance suffers critical drops when they are subsequently
trained on novel classes without any sample from the base classes originally
used to train the model. This phenomenon is known as catastrophic forgetting.
Recently, several incremental learning methods are proposed to mitigate
catastrophic forgetting for object detection. Despite the effectiveness, these
methods require co-occurrence of the unlabeled base classes in the training
data of the novel classes. This requirement is impractical in many real-world
settings since the base classes do not necessarily co-occur with the novel
classes. In view of this limitation, we consider a more practical setting of
complete absence of co-occurrence of the base and novel classes for the object
detection task. We propose the use of unlabeled in-the-wild data to bridge the
non co-occurrence caused by the missing base classes during the training of
additional novel classes. To this end, we introduce a blind sampling strategy
based on the responses of the base-class model and pre-trained novel-class
model to select a smaller relevant dataset from the large in-the-wild dataset
for incremental learning. We then design a dual-teacher distillation framework
to transfer the knowledge distilled from the base- and novel-class teacher
models to the student model using the sampled in-the-wild data. Experimental
results on the PASCAL VOC and MS COCO datasets show that our proposed method
significantly outperforms other state-of-the-art class-incremental object
detection methods when there is no co-occurrence between the base and novel
classes during training.
- Abstract(参考訳): ディープネットワークは、オブジェクト検出のタスクにおいて顕著な結果を示している。
しかし、モデルトレーニングに使用するベースクラスからのサンプルを使わずに、新たなクラスでトレーニングされた場合、パフォーマンスは極めて低下する。
この現象は破滅的な忘れ物として知られている。
近年,オブジェクト検出のための破滅的な忘れを緩和するためのインクリメンタル学習手法がいくつか提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
この要件は、ベースクラスが必ずしも新しいクラスと共起するとは限らないため、多くの実世界の設定では実用的ではない。
この制約を考慮し、ベースとオブジェクト検出タスクのための新しいクラスが全く存在しないという、より実用的な設定を考える。
そこで本研究では,新たな授業のトレーニングにおいて,欠落した基本クラスによる非共起を橋渡しするために,未ラベルインザワイルドデータを使用することを提案する。
そこで本研究では,ベースクラスモデルと事前学習されたノベルクラスモデルの応答に基づくブラインドサンプリング戦略を導入し,インクリメンタル学習のための大規模インザワイルドデータセットからより小さな関連するデータセットを選択する。
そこで,本研究では,教師モデルと新入生モデルから抽出した知識を,校内サンプルデータを用いて学生モデルに伝達する,デュアルティーチンガー蒸留フレームワークを設計する。
PASCAL VOCおよびMS COCOデータセットによる実験結果から,本手法は,トレーニング中にベースクラスと新規クラスの間に共起がない場合に,他の最先端クラスインクリメンタルオブジェクト検出方法よりも有意に優れていた。
関連論文リスト
- Open-Vocabulary Object Detection with Meta Prompt Representation and Instance Contrastive Optimization [63.66349334291372]
本稿ではメタプロンプトとインスタンスコントラスト学習(MIC)方式を用いたフレームワークを提案する。
まず、クラスとバックグラウンドのプロンプトを学習するプロンプトが新しいクラスに一般化するのを助けるために、新しいクラスエマージシナリオをシミュレートする。
第二に、クラス内コンパクト性とクラス間分離を促進するためのインスタンスレベルのコントラスト戦略を設計し、新しいクラスオブジェクトに対する検出器の一般化に寄与する。
論文 参考訳(メタデータ) (2024-03-14T14:25:10Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Multi-Granularity Regularized Re-Balancing for Class Incremental
Learning [32.52884416761171]
ディープラーニングモデルは、新しいタスクを学ぶときに破滅的な忘れに苦しむ。
古いクラスと新しいクラスのデータの不均衡は、モデルのパフォーマンスが低下する鍵となる問題である。
この問題を解決するために,仮定に依存しないマルチグラニュラリティ正規化再バランシング法を提案する。
論文 参考訳(メタデータ) (2022-06-30T11:04:51Z) - Class Impression for Data-free Incremental Learning [20.23329169244367]
ディープラーニングベースの分類アプローチでは、事前にすべてのクラスからすべてのサンプルを収集し、オフラインでトレーニングする必要がある。
このパラダイムは、新しいデータの追加によって新しいクラスが徐々に導入される現実世界の臨床応用では実用的ではないかもしれない。
本稿では,従来のクラスでトレーニングされたモデルからデータを初めて合成し,本クラスを生成する,新しいデータ自由クラスインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-26T06:20:17Z) - Label Hallucination for Few-Shot Classification [40.43730385915566]
ほとんどショットの分類では、新しい未知のクラスを認識するために、大きな注釈付きベースデータセットから学んだ知識を適応する必要がある。
これら2つの戦略に代替的なアプローチを提案する。
提案手法は, 精度の高い4つの複数ショット分類ベンチマークにおいて, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-12-06T20:18:41Z) - Open-World Semi-Supervised Learning [66.90703597468377]
本稿では,従来のクラスを認識するためにモデルを必要とする,新しいオープンワールド半教師付き学習環境を提案する。
データの分類とクラスタ化を同時に行うアプローチであるORCAを提案する。
我々は,ORCAが新しいクラスを正確に発見し,ベンチマーク画像分類データセット上で以前に見られたクラスにサンプルを割り当てることを示した。
論文 参考訳(メタデータ) (2021-02-06T07:11:07Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Two-Level Residual Distillation based Triple Network for Incremental
Object Detection [21.725878050355824]
本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
論文 参考訳(メタデータ) (2020-07-27T11:04:57Z) - Incremental Few-Shot Object Detection [96.02543873402813]
OpeN-ended Centre nEtは、いくつかの例でクラスオブジェクトの検出を漸進的に学習する検出器である。
ONCEはインクリメンタルな学習パラダイムを十分に尊重しており、新しいクラス登録では、数発のトレーニングサンプルを1回だけフォワードパスするだけでよい。
論文 参考訳(メタデータ) (2020-03-10T12:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。