論文の概要: Incremental Few-Shot Object Detection via Simple Fine-Tuning Approach
- arxiv url: http://arxiv.org/abs/2302.09779v1
- Date: Mon, 20 Feb 2023 05:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 16:37:07.156092
- Title: Incremental Few-Shot Object Detection via Simple Fine-Tuning Approach
- Title(参考訳): 簡易微調整法によるインクリメンタルFew-Shot物体検出
- Authors: Tae-Min Choi, Jong-Hwan Kim
- Abstract要約: iFSDは、いくつかの例を使って、ベースクラスを再考することなく、新しいクラスを漸進的に学習する。
そこで本研究では,iFSDのための単純な微調整手法であるIncrmental Two-stage Fine-tuning Approach (iTFA)を提案する。
iTFAはCOCOの競争性能を達成し、LVISデータセットのメタラーニング手法よりも30%高いAP精度を示す。
- 参考スコア(独自算出の注目度): 6.808112517338073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore incremental few-shot object detection (iFSD), which
incrementally learns novel classes using only a few examples without revisiting
base classes. Previous iFSD works achieved the desired results by applying
meta-learning. However, meta-learning approaches show insufficient performance
that is difficult to apply to practical problems. In this light, we propose a
simple fine-tuning-based approach, the Incremental Two-stage Fine-tuning
Approach (iTFA) for iFSD, which contains three steps: 1) base training using
abundant base classes with the class-agnostic box regressor, 2) separation of
the RoI feature extractor and classifier into the base and novel class branches
for preserving base knowledge, and 3) fine-tuning the novel branch using only a
few novel class examples. We evaluate our iTFA on the real-world datasets
PASCAL VOC, COCO, and LVIS. iTFA achieves competitive performance in COCO and
shows a 30% higher AP accuracy than meta-learning methods in the LVIS dataset.
Experimental results show the effectiveness and applicability of our proposed
method.
- Abstract(参考訳): 本稿では,基本クラスを再考することなく,いくつかの例を用いて新しいクラスを漸進的に学習するインクリメンタル・ショット・オブジェクト検出(iFSD)について検討する。
従来のiFSD研究はメタラーニングを適用して望ましい結果を得た。
しかし,メタラーニング手法は,実践的な問題に適用し難い性能を示す。
そこで本研究では,iFSDのための簡易な微調整手法であるIncrmental Two-stage Fine-tuning Approach (iTFA)を提案する。
1)クラス非依存のボックス回帰器を用いた豊富なベースクラスを用いたベーストレーニング
2 RoI特徴抽出器及び分類器を基礎知識の保存のための基礎及び新しいクラス分岐に分離し、
3) 新規分岐の微調整は, 少数の新規クラス例のみを用いて行う。
実世界のデータセットPASCAL VOC,COCO,LVISを用いてiTFAを評価した。
iTFAはCOCOの競争性能を達成し、LVISデータセットのメタ学習手法よりも30%高いAP精度を示す。
実験の結果,提案手法の有効性と適用性を示した。
関連論文リスト
- DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object
Detection [83.57616404714172]
Open-vocabulary Object Detection (OVOD) は、トレーニング中に観察されるクラス以外のオブジェクトを検出することを目的としている。
本研究は、事前学習された視覚言語モデル(VLM)のゼロショット分類能力を活用して、新しいクラスの提案を直接発見する単純な効果的な戦略を示す。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Strong Baselines for Parameter Efficient Few-Shot Fine-tuning [50.83426196335385]
FSC (Few-shot Classification) は、事前訓練(メタトレーニング)フェーズの後にクラス毎にいくつかの例を与えられた新しいクラスを学習する。
近年の研究では、新しいテストクラスで事前訓練された視覚変換器(ViT)を微調整することが、FSCにとって強力なアプローチであることが示されている。
しかし、微調整のViTは、時間、計算、ストレージに費用がかかる。
これにより、Transformerのパラメータのごく一部だけを微調整するPEFT法が考案された。
論文 参考訳(メタデータ) (2023-04-04T16:14:39Z) - Fast Hierarchical Learning for Few-Shot Object Detection [57.024072600597464]
転送学習アプローチは、最近、数ショット検出タスクで有望な結果を得た。
これらのアプローチは、ベース検出器の微調整による破滅的な忘れ込みの問題に悩まされる。
この作業における上記の問題に対処する。
論文 参考訳(メタデータ) (2022-10-10T20:31:19Z) - Sylph: A Hypernetwork Framework for Incremental Few-shot Object
Detection [8.492340530784697]
大量のデータを含む多くの基本カテゴリがメタトレーニングに利用できる場合、ファネチューンフリーのiFSDは極めて有効であることを示す。
我々はCOCOとLVISの両方でモデルをベンチマークし、LVISの長テールレアクラスで最大17%のAPを報告した。
論文 参考訳(メタデータ) (2022-03-25T20:39:00Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。