論文の概要: Many-shot from Low-shot: Learning to Annotate using Mixed Supervision
for Object Detection
- arxiv url: http://arxiv.org/abs/2008.09694v2
- Date: Wed, 26 Aug 2020 17:26:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:23:39.314661
- Title: Many-shot from Low-shot: Learning to Annotate using Mixed Supervision
for Object Detection
- Title(参考訳): 低ショットからの多ショット:オブジェクト検出のための混合スーパービジョンを用いたアノテーション学習
- Authors: Carlo Biffi, Steven McDonagh, Philip Torr, Ales Leonardis, Sarah
Parisot
- Abstract要約: オンラインアノテーションモジュール(OAM)は、弱いラベル付き画像の大きなボリュームから、多数の強調可能なアノテーションセットを生成することを学ぶ。
我々のOAMは、完全に教師された2段階のオブジェクト検出手法で共同で訓練することができ、オンザフライで追加のトレーニングアノテーションを提供する。
OAMとFast(er) R-CNNの統合により、PASCAL VOC 2007とMS-COCOベンチマークで17%$mAP、9%$AP50のパフォーマンスが向上し、混合監視による競合メソッドよりも大幅に向上した。
- 参考スコア(独自算出の注目度): 27.354492072251492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection has witnessed significant progress by relying on large,
manually annotated datasets. Annotating such datasets is highly time consuming
and expensive, which motivates the development of weakly supervised and
few-shot object detection methods. However, these methods largely underperform
with respect to their strongly supervised counterpart, as weak training signals
\emph{often} result in partial or oversized detections. Towards solving this
problem we introduce, for the first time, an online annotation module (OAM)
that learns to generate a many-shot set of \emph{reliable} annotations from a
larger volume of weakly labelled images. Our OAM can be jointly trained with
any fully supervised two-stage object detection method, providing additional
training annotations on the fly. This results in a fully end-to-end strategy
that only requires a low-shot set of fully annotated images. The integration of
the OAM with Fast(er) R-CNN improves their performance by $17\%$ mAP, $9\%$
AP50 on PASCAL VOC 2007 and MS-COCO benchmarks, and significantly outperforms
competing methods using mixed supervision.
- Abstract(参考訳): オブジェクト検出は、手動で注釈付けされた大規模なデータセットに依存することにより、大きな進歩をみせた。
このようなデータセットのアノテートは非常に時間がかかり、費用がかかるため、弱い教師付きおよび少数ショットのオブジェクト検出方法の開発を動機付けている。
しかしながら、これらの手法は、弱い訓練信号 \emph{often} が部分的または過大な検出をもたらすため、強い教師付きの手法に比べて性能が劣る。
この問題の解決に向けて、私たちは初めて、弱いラベル付き画像の大きなボリュームから多数のショットセットであるemph{reliable}アノテーションを生成するオンラインアノテーションモジュール(OAM)を紹介します。
我々のOAMは、完全に教師された2段階のオブジェクト検出手法で共同で訓練することができ、オンザフライで追加のトレーニングアノテーションを提供する。
その結果、完全なエンドツーエンドの戦略が実現し、完全な注釈付きイメージの低ショットセットしか必要としない。
OAMとFast(er) R-CNNの統合により、PASCAL VOC 2007とMS-COCOベンチマークで17\%$ mAP、9\%$ AP50のパフォーマンスが向上し、混合監視による競合メソッドよりも大幅に向上した。
関連論文リスト
- Efficient Meta-Learning Enabled Lightweight Multiscale Few-Shot Object Detection in Remote Sensing Images [15.12889076965307]
YOLOv7ワンステージ検出器は、新しいメタラーニングトレーニングフレームワークが組み込まれている。
この変換により、検出器はFSODのタスクに十分対応できると同時に、その固有の軽量化の利点を活かすことができる。
提案検出器の有効性を検証するため, 現状の検出器と性能比較を行った。
論文 参考訳(メタデータ) (2024-04-29T04:56:52Z) - USD: Unknown Sensitive Detector Empowered by Decoupled Objectness and
Segment Anything Model [14.080744645704751]
Open World Object Detection (OWOD) は、新しいコンピュータビジョンタスクである。
本稿では,この2つの境界の学習をデコーダ層に分割する,シンプルで効果的な学習戦略であるDecoupled Objectness Learning(DOL)を提案する。
また、擬似ラベルとソフトウェイト戦略を用いてノイズの負の影響を緩和する補助的スーパービジョンフレームワーク(ASF)も導入する。
論文 参考訳(メタデータ) (2023-06-04T06:42:09Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Weakly-Supervised Saliency Detection via Salient Object Subitizing [57.17613373230722]
我々は,クラス非依存であるため,弱い監督としてサリエンシー・サブイタライジングを導入する。
これにより、監視はサリエンシー検出の特性と整合することができます。
5つのベンチマークデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2021-01-04T12:51:45Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Towards Using Count-level Weak Supervision for Crowd Counting [55.58468947486247]
本稿では,少数の位置レベルのアノテーション(十分に教師された)と大量のカウントレベルのアノテーション(弱教師付き)からモデルを学習する,弱教師付き群集カウントの問題について検討する。
我々は、生成した密度マップの自由を制限するための正規化を構築するために、単純なyet効果のトレーニング戦略、すなわちMultiple Auxiliary Tasks Training (MATT)を考案した。
論文 参考訳(メタデータ) (2020-02-29T02:58:36Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。