論文の概要: Incremental Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2003.04668v2
- Date: Thu, 12 Mar 2020 20:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:11:23.789612
- Title: Incremental Few-Shot Object Detection
- Title(参考訳): インクリメンタルFewショットオブジェクト検出
- Authors: Juan-Manuel Perez-Rua and Xiatian Zhu and Timothy Hospedales and Tao
Xiang
- Abstract要約: OpeN-ended Centre nEtは、いくつかの例でクラスオブジェクトの検出を漸進的に学習する検出器である。
ONCEはインクリメンタルな学習パラダイムを十分に尊重しており、新しいクラス登録では、数発のトレーニングサンプルを1回だけフォワードパスするだけでよい。
- 参考スコア(独自算出の注目度): 96.02543873402813
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most existing object detection methods rely on the availability of abundant
labelled training samples per class and offline model training in a batch mode.
These requirements substantially limit their scalability to open-ended
accommodation of novel classes with limited labelled training data. We present
a study aiming to go beyond these limitations by considering the Incremental
Few-Shot Detection (iFSD) problem setting, where new classes must be registered
incrementally (without revisiting base classes) and with few examples. To this
end we propose OpeN-ended Centre nEt (ONCE), a detector designed for
incrementally learning to detect novel class objects with few examples. This is
achieved by an elegant adaptation of the CentreNet detector to the few-shot
learning scenario, and meta-learning a class-specific code generator model for
registering novel classes. ONCE fully respects the incremental learning
paradigm, with novel class registration requiring only a single forward pass of
few-shot training samples, and no access to base classes -- thus making it
suitable for deployment on embedded devices. Extensive experiments conducted on
both the standard object detection and fashion landmark detection tasks show
the feasibility of iFSD for the first time, opening an interesting and very
important line of research.
- Abstract(参考訳): 既存のオブジェクト検出メソッドのほとんどは、クラス毎の豊富なラベル付きトレーニングサンプルと、バッチモードでのオフラインモデルトレーニングの可用性に依存している。
これらの要件は、ラベル付きトレーニングデータに制限された新しいクラスのオープンエンド宿泊にスケーラビリティを著しく制限する。
本稿では,新しいクラスを(ベースクラスを再検討せずに)段階的に登録し,いくつか例を挙げて,この制限を克服することを目的とした研究について述べる。
そこで我々は,新しいクラスオブジェクトを検出するためのインクリメンタルに学習する検出器であるopen-ended centre net (once)を提案する。
これは、数ショットの学習シナリオにCentralNet検出器をエレガントに適応させ、新しいクラスを登録するためのクラス固有のコードジェネレータモデルをメタラーニングすることで実現される。
ひとたびインクリメンタルな学習パラダイムを完全に尊重すると、新しいクラス登録では、少数のトレーニングサンプルの1回のフォワードパスしか必要なくなり、ベースクラスへのアクセスがなくなるため、組み込みデバイスへのデプロイに適している。
標準オブジェクト検出とファッションランドマーク検出の両方で実施された大規模な実験は、初めてiFSDの実現可能性を示し、興味深く非常に重要な研究のラインを開く。
関連論文リスト
- InfRS: Incremental Few-Shot Object Detection in Remote Sensing Images [11.916941756499435]
本稿では,リモートセンシング画像におけるインクリメンタルな数ショット物体検出の複雑な課題について検討する。
本稿では,新しい授業の漸進的な学習を促進するために,InfRSと呼ばれる先駆的な微調整技術を導入する。
我々はワッサーシュタイン距離に基づく原型校正戦略を開発し、破滅的な忘れ問題を軽減する。
論文 参考訳(メタデータ) (2024-05-18T13:39:50Z) - Scaling Novel Object Detection with Weakly Supervised Detection
Transformers [21.219817483091166]
Weakly Supervised Detection Transformerを提案する。これは大規模な事前学習データセットからWSODファインタニングへの効率的な知識伝達を可能にする。
提案手法は, 大規模オブジェクト検出データセットにおいて, 従来の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-11T21:45:54Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Towards Generalized and Incremental Few-Shot Object Detection [9.033533653482529]
新規なインクリメンタルFew-Shot Object Detection (iFSOD) 法を提案する。
具体的には、ベースクラスと新規クラスの特徴表現を分離するために、DBF(Double-Branch Framework)を提案する。
我々はPascal VOCとMS-COCOの両方で実験を行い、この手法がインクリメンタル・ショット検出の問題を効果的に解決できることを実証した。
論文 参考訳(メタデータ) (2021-09-23T12:38:09Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。