論文の概要: Frustratingly Simple Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2003.06957v1
- Date: Mon, 16 Mar 2020 00:29:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 03:25:15.145398
- Title: Frustratingly Simple Few-Shot Object Detection
- Title(参考訳): フラストレーションに簡単なFew-Shotオブジェクト検出
- Authors: Xin Wang, Thomas E. Huang, Trevor Darrell, Joseph E. Gonzalez, Fisher
Yu
- Abstract要約: 希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
- 参考スコア(独自算出の注目度): 98.42824677627581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting rare objects from a few examples is an emerging problem. Prior
works show meta-learning is a promising approach. But, fine-tuning techniques
have drawn scant attention. We find that fine-tuning only the last layer of
existing detectors on rare classes is crucial to the few-shot object detection
task. Such a simple approach outperforms the meta-learning methods by roughly
2~20 points on current benchmarks and sometimes even doubles the accuracy of
the prior methods. However, the high variance in the few samples often leads to
the unreliability of existing benchmarks. We revise the evaluation protocols by
sampling multiple groups of training examples to obtain stable comparisons and
build new benchmarks based on three datasets: PASCAL VOC, COCO and LVIS. Again,
our fine-tuning approach establishes a new state of the art on the revised
benchmarks. The code as well as the pretrained models are available at
https://github.com/ucbdrive/few-shot-object-detection.
- Abstract(参考訳): いくつかの例からレアオブジェクトを検出することは、新たな問題である。
先行研究によると、メタラーニングは有望なアプローチである。
しかし、微調整技術は注意を引いている。
希少なクラスにおける既存検出器の最後の層のみを微調整することは、オブジェクト検出タスクにおいて極めて重要である。
このような単純なアプローチは、現在のベンチマークで約2~20ポイントのメタ学習メソッドを上回り、時には以前のメソッドの精度を2倍にすることもある。
しかし、少数のサンプルの高分散は、しばしば既存のベンチマークの信頼性を損なう。
我々は,複数のトレーニングサンプルをサンプリングして評価プロトコルを改訂し,安定した比較結果を得るとともに,PASCAL VOC,COCO,LVISの3つのデータセットに基づいて新しいベンチマークを構築する。
繰り返しますが、我々の微調整アプローチは、改訂されたベンチマークに関する新しい最先端技術を確立します。
コードと事前学習されたモデルはhttps://github.com/ucbdrive/few-shot-object-detectionで入手できる。
関連論文リスト
- Fast Hierarchical Learning for Few-Shot Object Detection [57.024072600597464]
転送学習アプローチは、最近、数ショット検出タスクで有望な結果を得た。
これらのアプローチは、ベース検出器の微調整による破滅的な忘れ込みの問題に悩まされる。
この作業における上記の問題に対処する。
論文 参考訳(メタデータ) (2022-10-10T20:31:19Z) - Label, Verify, Correct: A Simple Few Shot Object Detection Method [93.84801062680786]
トレーニングセットから高品質な擬似アノテーションを抽出するための簡単な擬似ラベリング手法を提案する。
擬似ラベリングプロセスの精度を向上させるための2つの新しい手法を提案する。
提案手法は,既存手法と比較して,最先端ないし第2の性能を実現する。
論文 参考訳(メタデータ) (2021-12-10T18:59:06Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - A Closer Look at Few-Shot Video Classification: A New Baseline and
Benchmark [33.86872697028233]
本研究は,3つのコントリビューションを生かした映像分類の詳細な研究である。
まず,既存のメートル法を一貫した比較研究を行い,表現学習の限界を明らかにする。
第2に,新しいアクションクラスとImageNetオブジェクトクラスとの間には高い相関関係があることが判明した。
第3に,事前学習をせずに将来的な数ショットビデオ分類を容易にするため,より多くのベースデータを持つ新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-10-24T06:01:46Z) - Generalized Few-Shot Object Detection without Forgetting [17.719042946397487]
本稿では,単純だが有効であるR-CNN(Retentive R-CNN)を提案する。
Bias-Balanced RPN は、事前訓練された RPN と Re-detector からなり、過去の知識を忘れずに、ほとんどショットのクラスオブジェクトを見つける。
我々のアプローチは、長年望まれていなかった学習者がオブジェクト検出で利用できることを示した。
論文 参考訳(メタデータ) (2021-05-20T03:25:29Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。