論文の概要: MINI: Mining Implicit Novel Instances for Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2205.03381v1
- Date: Fri, 6 May 2022 17:26:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 14:18:36.549685
- Title: MINI: Mining Implicit Novel Instances for Few-Shot Object Detection
- Title(参考訳): MINI:Few-Shotオブジェクト検出のための新規インスタンスのマイニング
- Authors: Yuhang Cao, Jiaqi Wang, Yiqi Lin, Dahua Lin
- Abstract要約: Mining Implicit Novel Instances (MINI)は、暗黙の新規インスタンスを補助的なトレーニングサンプルとしてマイニングするための新しいフレームワークである。
MINIは、どのショットやスプリットでも、最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 73.5061386065382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from a few training samples is a desirable ability of an object
detector, inspiring the explorations of Few-Shot Object Detection (FSOD). Most
existing approaches employ a pretrain-transfer paradigm. The model is first
pre-trained on base classes with abundant data and then transferred to novel
classes with a few annotated samples. Despite the substantial progress, the
FSOD performance is still far behind satisfactory. During pre-training, due to
the co-occurrence between base and novel classes, the model is learned to treat
the co-occurred novel classes as backgrounds. During transferring, given scarce
samples of novel classes, the model suffers from learning discriminative
features to distinguish novel instances from backgrounds and base classes. To
overcome the obstacles, we propose a novel framework, Mining Implicit Novel
Instances (MINI), to mine the implicit novel instances as auxiliary training
samples, which widely exist in abundant base data but are not annotated. MINI
comprises an offline mining mechanism and an online mining mechanism. The
offline mining mechanism leverages a self-supervised discriminative model to
collaboratively mine implicit novel instances with a trained FSOD network.
Taking the mined novel instances as auxiliary training samples, the online
mining mechanism takes a teacher-student framework to simultaneously update the
FSOD network and the mined implicit novel instances on the fly. Extensive
experiments on PASCAL VOC and MS-COCO datasets show MINI achieves new
state-of-the-art performance on any shot and split. The significant performance
improvements demonstrate the superiority of our method.
- Abstract(参考訳): いくつかのトレーニングサンプルから学ぶことは、Few-Shot Object Detection (FSOD)の探索を刺激するオブジェクト検出器の望ましい能力である。
既存のアプローチの多くは、プリトレイントランスファーパラダイムを採用している。
モデルはまず、豊富なデータを持つベースクラスで事前訓練され、その後、いくつかの注釈付きサンプルを持つ新しいクラスに転送される。
実質的な進歩にもかかわらず、fsodのパフォーマンスは依然として満足のいくものには程遠い。
事前学習では,ベースクラスと新規クラスとの共起により,共起した新規クラスを背景として扱うことが学習される。
移動中、新しいクラスの希少なサンプルが与えられたモデルでは、新しいインスタンスをバックグラウンドやベースクラスと区別するために識別的特徴を学習する。
この課題を克服するために,暗黙の新規インスタンスマイニング(mini)という新しい枠組みを提案し,暗黙の新規インスタンスを,豊富なベースデータに広く存在するが注釈付されていない補助訓練サンプルとしてマイニングする。
MINIはオフラインマイニング機構とオンラインマイニング機構から構成される。
オフラインマイニング機構は、自己教師付き判別モデルを利用して、トレーニングされたfsodネットワークで暗黙の新規インスタンスを共同マイニングする。
オンラインマイニングの仕組みでは、トレーニングの補助として、FSODネットワークと暗黙の新規インスタンスを同時に更新するために、教師と学生のフレームワークを利用する。
PASCAL VOCとMS-COCOデータセットの大規模な実験は、MINIが任意のショットとスプリットに対して新しい最先端のパフォーマンスを達成することを示している。
大幅な性能改善は,提案手法の優越性を示す。
関連論文リスト
- Open-Vocabulary Object Detection with Meta Prompt Representation and Instance Contrastive Optimization [63.66349334291372]
本稿ではメタプロンプトとインスタンスコントラスト学習(MIC)方式を用いたフレームワークを提案する。
まず、クラスとバックグラウンドのプロンプトを学習するプロンプトが新しいクラスに一般化するのを助けるために、新しいクラスエマージシナリオをシミュレートする。
第二に、クラス内コンパクト性とクラス間分離を促進するためのインスタンスレベルのコントラスト戦略を設計し、新しいクラスオブジェクトに対する検出器の一般化に寄与する。
論文 参考訳(メタデータ) (2024-03-14T14:25:10Z) - ProxyDet: Synthesizing Proxy Novel Classes via Classwise Mixup for
Open-Vocabulary Object Detection [7.122652901894367]
Open-vocabulary Object Detection (OVOD)は、トレーニングセットにカテゴリが含まれていない新しいオブジェクトを認識することを目的としている。
本稿では,新しいクラス全体の分布を一般化する手法を提案する。
論文 参考訳(メタデータ) (2023-12-12T13:45:56Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - Demystifying the Base and Novel Performances for Few-shot
Class-incremental Learning [15.762281194023462]
FSCIL(Few-shot class-incremental Learning)は、目に見えない新しいクラスがほとんどサンプルを持って絶えずやってくる現実のシナリオに対処している。
先行知識を忘れずに新しいクラスを認識するモデルを開発する必要がある。
本手法は,高度な最先端アルゴリズムと同等の性能を有することを示す。
論文 参考訳(メタデータ) (2022-06-18T00:39:47Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Incremental Few-Shot Object Detection [96.02543873402813]
OpeN-ended Centre nEtは、いくつかの例でクラスオブジェクトの検出を漸進的に学習する検出器である。
ONCEはインクリメンタルな学習パラダイムを十分に尊重しており、新しいクラス登録では、数発のトレーニングサンプルを1回だけフォワードパスするだけでよい。
論文 参考訳(メタデータ) (2020-03-10T12:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。