論文の概要: StarNet: towards Weakly Supervised Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2003.06798v3
- Date: Thu, 17 Sep 2020 11:37:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:55:01.736548
- Title: StarNet: towards Weakly Supervised Few-Shot Object Detection
- Title(参考訳): starnet: 弱い教師付き少数ショット物体検出に向けて
- Authors: Leonid Karlinsky and Joseph Shtok and Amit Alfassy and Moshe
Lichtenstein and Sivan Harary and Eli Schwartz and Sivan Doveh and Prasanna
Sattigeri and Rogerio Feris and Alexander Bronstein and Raja Giryes
- Abstract要約: 本稿では、終端から終端までの識別可能な非パラメトリック星モデル検出と分類ヘッドを特徴とする数ショットモデルであるStarNetを紹介する。
このヘッドを通じて、バックボーンは画像レベルのラベルのみを使用してメタトレーニングされ、これまで目に見えないいくつかのテストタスクのカテゴリを共同でローカライズおよび分類するための優れた機能を生成する。
数発の検知器であるため、StarNetは事前トレーニングや新しいクラス適応のためのバウンディングボックスアノテーションを一切必要としない。
- 参考スコア(独自算出の注目度): 87.80771067891418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot detection and classification have advanced significantly in recent
years. Yet, detection approaches require strong annotation (bounding boxes)
both for pre-training and for adaptation to novel classes, and classification
approaches rarely provide localization of objects in the scene. In this paper,
we introduce StarNet - a few-shot model featuring an end-to-end differentiable
non-parametric star-model detection and classification head. Through this head,
the backbone is meta-trained using only image-level labels to produce good
features for jointly localizing and classifying previously unseen categories of
few-shot test tasks using a star-model that geometrically matches between the
query and support images (to find corresponding object instances). Being a
few-shot detector, StarNet does not require any bounding box annotations,
neither during pre-training nor for novel classes adaptation. It can thus be
applied to the previously unexplored and challenging task of Weakly Supervised
Few-Shot Object Detection (WS-FSOD), where it attains significant improvements
over the baselines. In addition, StarNet shows significant gains on few-shot
classification benchmarks that are less cropped around the objects (where
object localization is key).
- Abstract(参考訳): 近年では少ないショット検出と分類が著しく進歩している。
しかし、検出手法は事前学習と新しいクラスへの適応の両方に強力なアノテーション(バウンディングボックス)を必要とし、分類手法はシーン内のオブジェクトのローカライズをほとんど提供しない。
本稿では,終端から終端まで微分可能な非パラメトリックな星モデル検出と分類ヘッドを備えたstarnetを紹介する。
このヘッドを通じて、バックボーンは画像レベルのラベルのみを使用してメタトレーニングされ、クエリとサポートイメージ(対応するオブジェクトインスタンスを見つけるために)の幾何学的に一致するスターモデルを使用して、未確認のいくつかのテストタスクのカテゴリを共同でローカライズおよび分類するための優れた機能を生成する。
数発の検知器であるため、StarNetは事前トレーニングや新しいクラス適応のためのバウンディングボックスアノテーションを必要としない。
これにより、Wakly Supervised Few-Shot Object Detection (WS-FSOD)という未調査の課題に適用でき、ベースラインよりも大幅に改善されている。
さらに、starnetは、オブジェクト(オブジェクトのローカライズが重要な部分)のまわりのトリミングが少ない、少数ショットの分類ベンチマークで大きな成果を上げている。
関連論文リスト
- Identification of Novel Classes for Improving Few-Shot Object Detection [12.013345715187285]
Few-shot Object Detection (FSOD) メソッドは、クラス毎に少数のトレーニングサンプルのみを使用して、堅牢なオブジェクト検出を実現することで、改善を提供する。
我々は、FSOD性能を向上させるためのトレーニング中に、未ラベルの新規物体を正のサンプルとして検出し、利用するための半教師付きアルゴリズムを開発した。
実験の結果,本手法は既存のSOTA FSOD法よりも有効であり,優れた結果が得られた。
論文 参考訳(メタデータ) (2023-03-18T14:12:52Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z) - Cross-Supervised Object Detection [42.783400918552765]
完全ラベル付きベースカテゴリから学習した知識を活用して、新しいカテゴリの弱いラベル付き画像からより良いオブジェクト検出器を構築する方法を示す。
本稿では,インスタンスレベルのアノテーションから学習した検出ヘッドと,画像レベルのアノテーションから学習した認識ヘッドを組み合わせた統合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-26T15:33:48Z) - Exploring Bottom-up and Top-down Cues with Attentive Learning for Webly
Supervised Object Detection [76.9756607002489]
本稿では,新しいクラスを対象としたWebSOD法を提案する。
提案手法はボトムアップとトップダウンを組み合わせた新しいクラス検出手法である。
提案手法は,3種類の新規/ベース分割を持つPASCAL VOCデータセット上で実証した。
論文 参考訳(メタデータ) (2020-03-22T03:11:24Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z) - Incremental Few-Shot Object Detection [96.02543873402813]
OpeN-ended Centre nEtは、いくつかの例でクラスオブジェクトの検出を漸進的に学習する検出器である。
ONCEはインクリメンタルな学習パラダイムを十分に尊重しており、新しいクラス登録では、数発のトレーニングサンプルを1回だけフォワードパスするだけでよい。
論文 参考訳(メタデータ) (2020-03-10T12:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。