論文の概要: Cross-Supervised Object Detection
- arxiv url: http://arxiv.org/abs/2006.15056v2
- Date: Mon, 29 Jun 2020 03:11:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:58:32.870411
- Title: Cross-Supervised Object Detection
- Title(参考訳): クロススーパービジョンオブジェクト検出
- Authors: Zitian Chen, Zhiqiang Shen, Jiahui Yu, Erik Learned-Miller
- Abstract要約: 完全ラベル付きベースカテゴリから学習した知識を活用して、新しいカテゴリの弱いラベル付き画像からより良いオブジェクト検出器を構築する方法を示す。
本稿では,インスタンスレベルのアノテーションから学習した検出ヘッドと,画像レベルのアノテーションから学習した認識ヘッドを組み合わせた統合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 42.783400918552765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: After learning a new object category from image-level annotations (with no
object bounding boxes), humans are remarkably good at precisely localizing
those objects. However, building good object localizers (i.e., detectors)
currently requires expensive instance-level annotations. While some work has
been done on learning detectors from weakly labeled samples (with only class
labels), these detectors do poorly at localization. In this work, we show how
to build better object detectors from weakly labeled images of new categories
by leveraging knowledge learned from fully labeled base categories. We call
this novel learning paradigm cross-supervised object detection. We propose a
unified framework that combines a detection head trained from instance-level
annotations and a recognition head learned from image-level annotations,
together with a spatial correlation module that bridges the gap between
detection and recognition. These contributions enable us to better detect novel
objects with image-level annotations in complex multi-object scenes such as the
COCO dataset.
- Abstract(参考訳): 画像レベルのアノテーション(オブジェクトバウンディングボックスなしで)から新しいオブジェクトカテゴリを学習した後、人間はそれらのオブジェクトを正確にローカライズするのに非常に優れている。
しかし、優れたオブジェクトローカライザ(つまり検出器)を構築するには、現在高価なインスタンスレベルのアノテーションが必要である。
弱いラベル付きサンプル(クラスラベルのみ)から検出器を学習する作業がいくつか行われているが、これらの検出器は局在性に乏しい。
本研究では,完全ラベル付きベースカテゴリから得られた知識を活用して,新しいカテゴリの弱いラベル付き画像からより優れた物体検出器を構築する方法を示す。
この新しい学習パラダイムをクロス教師付き物体検出と呼ぶ。
本稿では,インスタンスレベルのアノテーションから学習した検出ヘッドと画像レベルのアノテーションから学習した認識ヘッドと,検出と認識のギャップを埋める空間相関モジュールを組み合わせた統合フレームワークを提案する。
これらの貢献により、COCOデータセットのような複雑なマルチオブジェクトシーンにおいて、画像レベルのアノテーションを持つ新しいオブジェクトをよりよく検出できる。
関連論文リスト
- Improving Object Detection via Local-global Contrastive Learning [27.660633883387753]
本稿では,クロスドメインオブジェクト検出を対象とする画像から画像への変換手法を提案する。
ローカル・グローバル情報と対比することでオブジェクトを表現することを学ぶ。
これにより、ドメインシフトの下で、パフォーマンス検出(Performant detection)の取得という、未調査の課題の調査が可能になる。
論文 参考訳(メタデータ) (2024-10-07T14:18:32Z) - Learning Dense Object Descriptors from Multiple Views for Low-shot
Category Generalization [27.583517870047487]
本稿では、カテゴリやセマンティックなオブジェクト部分ラベルを使わずに、オブジェクトインスタンスの複数のビューからトレーニングできるDeep Object Patch rimis(DOPE)を提案する。
DOPEを訓練するために、物体の視界間の画素レベルの対応を得るために、スパースディープ、フォアグラウンドマスク、および既知のカメラへのアクセスを仮定する。
DOPEは, 局所的マッチングを用いて, 新規カテゴリーの低ショット分類に利用でき, 教師付き学習ベースラインや自己教師型学習ベースラインと競合し, 優れることがわかった。
論文 参考訳(メタデータ) (2022-11-28T04:31:53Z) - Robust Object Detection in Remote Sensing Imagery with Noisy and Sparse
Geo-Annotations (Full Version) [4.493174773769076]
本稿では,非常にノイズの多い,不完全なアノテーションを用いたオブジェクト検出器のトレーニング手法を提案する。
本手法は,教師による学習フレームワークと,不正確で欠落したアノテーションを考慮した修正モジュールに基づく。
我々は,雑音の多い実世界のリモートセンシングデータセット上で,標準検出器を37.1%$AP_50$で改善できることを実証した。
論文 参考訳(メタデータ) (2022-10-24T07:25:31Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Self-supervised object detection from audio-visual correspondence [101.46794879729453]
我々は、監視なしで物体検出器を学習する問題に取り組む。
画像レベルのクラスラベルは想定せず、代わりにオーディオビジュアルデータから監視信号を抽出します。
本研究では,航空機やネコなどの機器以外のジェネリック物体の検出を学習できることを示した。
論文 参考訳(メタデータ) (2021-04-13T17:59:03Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。