論文の概要: Mixed Supervised Object Detection by Transferring Mask Prior and
Semantic Similarity
- arxiv url: http://arxiv.org/abs/2110.14191v1
- Date: Wed, 27 Oct 2021 05:43:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 03:04:03.852136
- Title: Mixed Supervised Object Detection by Transferring Mask Prior and
Semantic Similarity
- Title(参考訳): マスク先行移動と意味的類似性による混在物体検出
- Authors: Yan Liu, Zhijie Zhang, Li Niu, Junjie Chen, Liqing Zhang
- Abstract要約: 我々は、弱いアノテーションを用いて新しいオブジェクトカテゴリを学習する、複合的な監視によるオブジェクト検出について考察する。
さらに、新しいカテゴリと基本カテゴリのギャップを埋めるために、マスクの先行と意味的類似性を転送する。
3つのベンチマークデータセットによる実験結果から,既存手法に対する提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 22.706462533761986
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Object detection has achieved promising success, but requires large-scale
fully-annotated data, which is time-consuming and labor-extensive. Therefore,
we consider object detection with mixed supervision, which learns novel object
categories using weak annotations with the help of full annotations of existing
base object categories. Previous works using mixed supervision mainly learn the
class-agnostic objectness from fully-annotated categories, which can be
transferred to upgrade the weak annotations to pseudo full annotations for
novel categories. In this paper, we further transfer mask prior and semantic
similarity to bridge the gap between novel categories and base categories.
Specifically, the ability of using mask prior to help detect objects is learned
from base categories and transferred to novel categories. Moreover, the
semantic similarity between objects learned from base categories is transferred
to denoise the pseudo full annotations for novel categories. Experimental
results on three benchmark datasets demonstrate the effectiveness of our method
over existing methods. Codes are available at
https://github.com/bcmi/TraMaS-Weak-Shot-Object-Detection.
- Abstract(参考訳): オブジェクト検出は有望な成功を収めましたが、大規模な完全注釈付きデータが必要です。
そこで本研究では,既存のベースオブジェクトカテゴリの完全アノテーションを用いて,弱いアノテーションを用いて新しいオブジェクトカテゴリを学習する混合監督によるオブジェクト検出を考える。
混合監督を用いた以前の作品は、主に完全な注釈付きカテゴリからクラスに依存しないオブジェクト性を学び、弱いアノテーションを新しいカテゴリの擬似完全アノテーションにアップグレードすることができる。
本稿では,新しいカテゴリと基本カテゴリのギャップを埋めるために,マスクの事前性と意味的類似性をさらに転送する。
具体的には、オブジェクトの検出に先立ってマスクを使用する能力は、ベースカテゴリから学び、新しいカテゴリに転送される。
さらに、ベースカテゴリから学習したオブジェクト間の意味的類似性は、新しいカテゴリの擬似フルアノテーションを識別するために転送される。
3つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
コードはhttps://github.com/bcmi/TraMaS-Weak-Shot-Object-Detectionで公開されている。
関連論文リスト
- Open-Vocabulary Object Detection with Meta Prompt Representation and Instance Contrastive Optimization [63.66349334291372]
本稿ではメタプロンプトとインスタンスコントラスト学習(MIC)方式を用いたフレームワークを提案する。
まず、クラスとバックグラウンドのプロンプトを学習するプロンプトが新しいクラスに一般化するのを助けるために、新しいクラスエマージシナリオをシミュレートする。
第二に、クラス内コンパクト性とクラス間分離を促進するためのインスタンスレベルのコントラスト戦略を設計し、新しいクラスオブジェクトに対する検出器の一般化に寄与する。
論文 参考訳(メタデータ) (2024-03-14T14:25:10Z) - Semantic-Promoted Debiasing and Background Disambiguation for Zero-Shot
Instance Segmentation [13.001629605405954]
Zero-shotインスタンスセグメンテーションは、トレーニングサンプルを使わずに、目に見えないカテゴリのオブジェクトを検出し、正確にセグメンテーションすることを目的としている。
セマンティック・プロモート・デバイアスと背景曖昧化を併用したD$2$Zeroを提案する。
背景の曖昧さは、背景に対する新しいオブジェクトの誤認を避けるために、画像適応的な背景表現を生成する。
論文 参考訳(メタデータ) (2023-05-22T16:00:01Z) - Mask-free OVIS: Open-Vocabulary Instance Segmentation without Manual
Mask Annotations [86.47908754383198]
Open-Vocabulary (OV) 法は、大規模な画像キャプチャペアと視覚言語モデルを利用して、新しいカテゴリを学習する。
提案手法は,イメージキャプションペアに存在するオブジェクトに対して,事前学習された視覚言語モデルの局所化能力を活用することで,擬似マスクアノテーションを生成する。
擬似マスクを用いてトレーニングした手法は,MS-COCOデータセットとOpenImagesデータセットのmAPスコアを大幅に改善する。
論文 参考訳(メタデータ) (2023-03-29T17:58:39Z) - Learning Dense Object Descriptors from Multiple Views for Low-shot
Category Generalization [27.583517870047487]
本稿では、カテゴリやセマンティックなオブジェクト部分ラベルを使わずに、オブジェクトインスタンスの複数のビューからトレーニングできるDeep Object Patch rimis(DOPE)を提案する。
DOPEを訓練するために、物体の視界間の画素レベルの対応を得るために、スパースディープ、フォアグラウンドマスク、および既知のカメラへのアクセスを仮定する。
DOPEは, 局所的マッチングを用いて, 新規カテゴリーの低ショット分類に利用でき, 教師付き学習ベースラインや自己教師型学習ベースラインと競合し, 優れることがわかった。
論文 参考訳(メタデータ) (2022-11-28T04:31:53Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Few-Shot Object Detection: A Survey [4.266990593059534]
オブジェクト検出は、ターゲットドメイン内の新しいカテゴリの少数のオブジェクトインスタンスから学ぶことを目的としている。
トレーニング手法とアーキテクチャレイアウトに応じてアプローチを分類する。
一般的なデータセットとその評価プロトコルを導入し,ベンチマーク結果を解析する。
論文 参考訳(メタデータ) (2021-12-22T07:08:53Z) - Towards A Category-extended Object Detector without Relabeling or
Conflicts [40.714221493482974]
本稿では,手作業を必要とせずに,限られたデータセットに基づいてすべてのカテゴリを処理可能な,強力な統一型検出器の傾きを目標とする。
提案手法は, 基礎モデルの改善, 未ラベルの地中埋立処分戦略の改善, 疑似アノテーションによる再訓練手法の3つの側面に着目した実践的枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-28T06:44:53Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Cross-Supervised Object Detection [42.783400918552765]
完全ラベル付きベースカテゴリから学習した知識を活用して、新しいカテゴリの弱いラベル付き画像からより良いオブジェクト検出器を構築する方法を示す。
本稿では,インスタンスレベルのアノテーションから学習した検出ヘッドと,画像レベルのアノテーションから学習した認識ヘッドを組み合わせた統合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-26T15:33:48Z) - StarNet: towards Weakly Supervised Few-Shot Object Detection [87.80771067891418]
本稿では、終端から終端までの識別可能な非パラメトリック星モデル検出と分類ヘッドを特徴とする数ショットモデルであるStarNetを紹介する。
このヘッドを通じて、バックボーンは画像レベルのラベルのみを使用してメタトレーニングされ、これまで目に見えないいくつかのテストタスクのカテゴリを共同でローカライズおよび分類するための優れた機能を生成する。
数発の検知器であるため、StarNetは事前トレーニングや新しいクラス適応のためのバウンディングボックスアノテーションを一切必要としない。
論文 参考訳(メタデータ) (2020-03-15T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。