論文の概要: Closing the Generalization Gap in One-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2011.04267v1
- Date: Mon, 9 Nov 2020 09:31:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:23:40.681338
- Title: Closing the Generalization Gap in One-Shot Object Detection
- Title(参考訳): ワンショット物体検出における一般化ギャップの閉鎖
- Authors: Claudio Michaelis, Matthias Bethge, Alexander S. Ecker
- Abstract要約: 強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
- 参考スコア(独自算出の注目度): 92.82028853413516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite substantial progress in object detection and few-shot learning,
detecting objects based on a single example - one-shot object detection -
remains a challenge: trained models exhibit a substantial generalization gap,
where object categories used during training are detected much more reliably
than novel ones. Here we show that this generalization gap can be nearly closed
by increasing the number of object categories used during training. Our results
show that the models switch from memorizing individual categories to learning
object similarity over the category distribution, enabling strong
generalization at test time. Importantly, in this regime standard methods to
improve object detection models like stronger backbones or longer training
schedules also benefit novel categories, which was not the case for smaller
datasets like COCO. Our results suggest that the key to strong few-shot
detection models may not lie in sophisticated metric learning approaches, but
instead in scaling the number of categories. Future data annotation efforts
should therefore focus on wider datasets and annotate a larger number of
categories rather than gathering more images or instances per category.
- Abstract(参考訳): トレーニングされたモデルには、トレーニング中に使用されるオブジェクトカテゴリが、新しいものよりもはるかに確実に検出されるような、実質的な一般化ギャップがあります。
ここでは、トレーニング中に使用されるオブジェクトカテゴリの数を増やすことで、この一般化ギャップをほぼ閉ざすことができることを示す。
この結果から,各カテゴリを記憶するモデルから,カテゴリ分布上のオブジェクト類似性を学ぶモデルに切り換えた結果,テスト時に強い一般化が可能となった。
この体制では、より強力なバックボーンやより長いトレーニングスケジュールのようなオブジェクト検出モデルを改善するための標準手法もまた、新しいカテゴリの恩恵を受けており、COCOのような小さなデータセットには当てはまらない。
以上の結果から, 高度なメトリクス学習アプローチではなく, カテゴリの規模を拡大する上で, 強力な数点検出モデルの鍵となることが示唆された。
それゆえ、将来のデータアノテーションの取り組みは、カテゴリごとにより多くの画像やインスタンスを集めるのではなく、より広いデータセットに焦点をあて、より多くのカテゴリに注釈を付けるべきである。
関連論文リスト
- Object Occlusion of Adding New Categories in Objection Detection [4.014524824655107]
データ効率が高く、希少なオブジェクトカテゴリを扱うことができるインスタンス検出モデルを構築することは、コンピュータビジョンにおいて重要な課題である。
本稿では,Object Occlusionデータ収集と拡張手法の体系的研究を行う。
私たちは、数百のカテゴリを持つ50万のトレーニングデータセットに、新しいカテゴリの15のイメージのみを追加することで、この新たなカテゴリを、目に見えないテストデータセットで95%の精度で提供できる、と明言しています。
論文 参考訳(メタデータ) (2022-06-12T13:02:23Z) - Few-Shot Object Detection: A Survey [4.266990593059534]
オブジェクト検出は、ターゲットドメイン内の新しいカテゴリの少数のオブジェクトインスタンスから学ぶことを目的としている。
トレーニング手法とアーキテクチャレイアウトに応じてアプローチを分類する。
一般的なデータセットとその評価プロトコルを導入し,ベンチマーク結果を解析する。
論文 参考訳(メタデータ) (2021-12-22T07:08:53Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Scaling Laws for the Few-Shot Adaptation of Pre-trained Image
Classifiers [11.408339220607251]
ニューラルネットワークのスケーリング法則の実証科学は、機械学習の未来にとって重要な領域として急速に成長している。
我々の主な目的は、事前学習データの量が標準画像分類器の少数ショット一般化性能にどのように影響するかを検討することである。
論文 参考訳(メタデータ) (2021-10-13T19:07:01Z) - On Model Calibration for Long-Tailed Object Detection and Instance
Segmentation [56.82077636126353]
NorCal, Normalized for long-tailed object detection and instance segmentation。
バックグラウンドクラスを個別に扱い、各提案のクラスに対してスコアを正規化することは、優れたパフォーマンスを達成するための鍵であることを示す。
論文 参考訳(メタデータ) (2021-07-05T17:57:20Z) - Towards A Category-extended Object Detector without Relabeling or
Conflicts [40.714221493482974]
本稿では,手作業を必要とせずに,限られたデータセットに基づいてすべてのカテゴリを処理可能な,強力な統一型検出器の傾きを目標とする。
提案手法は, 基礎モデルの改善, 未ラベルの地中埋立処分戦略の改善, 疑似アノテーションによる再訓練手法の3つの側面に着目した実践的枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-28T06:44:53Z) - Few-Shot Object Detection via Knowledge Transfer [21.3564383157159]
オブジェクト検出の従来の方法は、通常かなりの量のトレーニングデータと注釈付きバウンディングボックスを必要とする。
本稿では,いくつかの学習例からオブジェクトを検出することを目的とした,知識伝達によるオブジェクト検出について紹介する。
論文 参考訳(メタデータ) (2020-08-28T06:35:27Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - StarNet: towards Weakly Supervised Few-Shot Object Detection [87.80771067891418]
本稿では、終端から終端までの識別可能な非パラメトリック星モデル検出と分類ヘッドを特徴とする数ショットモデルであるStarNetを紹介する。
このヘッドを通じて、バックボーンは画像レベルのラベルのみを使用してメタトレーニングされ、これまで目に見えないいくつかのテストタスクのカテゴリを共同でローカライズおよび分類するための優れた機能を生成する。
数発の検知器であるため、StarNetは事前トレーニングや新しいクラス適応のためのバウンディングボックスアノテーションを一切必要としない。
論文 参考訳(メタデータ) (2020-03-15T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。