論文の概要: Group R-CNN for Weakly Semi-supervised Object Detection with Points
- arxiv url: http://arxiv.org/abs/2205.05920v1
- Date: Thu, 12 May 2022 07:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 13:44:11.569351
- Title: Group R-CNN for Weakly Semi-supervised Object Detection with Points
- Title(参考訳): 点を用いた弱半教師付き物体検出のためのグループR-CNN
- Authors: Shilong Zhang, Zhuoran Yu, Liyang Liu, Xinjiang Wang, Aojun Zhou and
Kai Chen
- Abstract要約: 本稿では,グループR-CNNの効率的なポイントツーボックス回帰器を提案する。
グループR-CNNはまず、各ポイントアノテーションに対する提案のグループを生成するために、インスタンスレベルの提案グループを使用する。
我々は,グループR-CNNが先行手法であるポイントDETRの3.9mAPと5%の良好なラベル付き画像より有意に優れていたことを示す。
- 参考スコア(独自算出の注目度): 18.720915213798623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of weakly semi-supervised object detection with points
(WSSOD-P), where the training data is combined by a small set of fully
annotated images with bounding boxes and a large set of weakly-labeled images
with only a single point annotated for each instance. The core of this task is
to train a point-to-box regressor on well-labeled images that can be used to
predict credible bounding boxes for each point annotation. We challenge the
prior belief that existing CNN-based detectors are not compatible with this
task. Based on the classic R-CNN architecture, we propose an effective
point-to-box regressor: Group R-CNN. Group R-CNN first uses instance-level
proposal grouping to generate a group of proposals for each point annotation
and thus can obtain a high recall rate. To better distinguish different
instances and improve precision, we propose instance-level proposal assignment
to replace the vanilla assignment strategy adopted in the original R-CNN
methods. As naive instance-level assignment brings converging difficulty, we
propose instance-aware representation learning which consists of instance-aware
feature enhancement and instance-aware parameter generation to overcome this
issue. Comprehensive experiments on the MS-COCO benchmark demonstrate the
effectiveness of our method. Specifically, Group R-CNN significantly
outperforms the prior method Point DETR by 3.9 mAP with 5% well-labeled images,
which is the most challenging scenario. The source code can be found at
https://github.com/jshilong/GroupRCNN
- Abstract(参考訳): 本稿では,各インスタンスに1点のアノテートしか持たない弱ラベル画像と,境界ボックス付き完全アノテート画像の小さなセットと,弱ラベル画像の大きなセットとでトレーニングデータを結合する,ポイント付き弱半教師対象検出(WSSOD-P)の問題について検討する。
このタスクの中核は、各ポイントアノテーションの信頼できるバウンディングボックスを予測するために使用できる、よくラベルされたイメージ上に、ポイントツーボックスのレグレッシャをトレーニングすることである。
我々は、既存のCNNベースの検出器がこのタスクと互換性がないという以前の信念に挑戦する。
従来のR-CNNアーキテクチャをベースとして,実効的なR-CNN(Group R-CNN)を提案する。
グループR-CNNはまずインスタンスレベルの提案グループを使用して各ポイントアノテーションに対する提案のグループを生成し、高いリコール率を得ることができる。
異なるインスタンスを識別し、精度を向上させるために、元のR-CNN方式で採用されているバニラ代入戦略を置き換えるために、インスタンスレベルの提案代入を提案する。
そこで本研究では,この問題を克服するために,インスタンス認識機能拡張とインスタンス認識パラメータ生成からなるインスタンス認識表現学習を提案する。
MS-COCOベンチマークの総合的な実験により,本手法の有効性が示された。
特に、グループR-CNNは、PポイントDETRを3.9mAP、5%の良好なラベル付き画像で大幅に上回り、最も難しいシナリオである。
ソースコードはhttps://github.com/jshilong/GroupRCNNで確認できる。
関連論文リスト
- Complete Instances Mining for Weakly Supervised Instance Segmentation [6.177842623752537]
画像レベルのラベルのみを用いた弱教師付きインスタンスセグメンテーション(WSIS)のための新しい手法を提案する。
我々はMaskIoUヘッドを使用して提案の整合性のスコアを予測するとともに,冗長なセグメンテーション問題を明示的にモデル化するための完全インスタンスマイニング(CIM)戦略を提案する。
弊社のアプローチは、複数のインスタンスや完全なインスタンスをネットワークが認識できるようにし、アンチノイズ戦略を取り入れることで、その堅牢性をさらに向上する。
論文 参考訳(メタデータ) (2024-02-12T13:16:47Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Pointly-Supervised Instance Segmentation [81.34136519194602]
インスタンスセグメンテーションの弱い監視の新しい形態であるポイントベースのインスタンスレベルのアノテーションを提案する。
標準のバウンディングボックスアノテーションと、各バウンディングボックス内で一様にサンプリングされるラベル付きポイントを組み合わせる。
実験では,COCO,PASCAL VOC,Cityscapes,LVISでトレーニングしたMask R-CNNモデルに対して,各オブジェクトあたりの注釈付きポイントが94%~98%の完全教師付きパフォーマンスを達成した。
論文 参考訳(メタデータ) (2021-04-13T17:59:40Z) - ATRM: Attention-based Task-level Relation Module for GNN-based Few-shot
Learning [14.464964336101028]
注目に基づくタスクレベル関係モジュール(ATRM)という新しい関係測定法を提案する。
提案モジュールは,サンプルからサンプルへの埋め込み機能ではなく,サンプルからタスクまでを考慮し,ノード間の関係表現をキャプチャする。
実験結果から,提案モジュールはGNNによる少数ショット学習に有効であることが示された。
論文 参考訳(メタデータ) (2021-01-25T00:53:04Z) - Joint Object Contour Points and Semantics for Instance Segmentation [1.2117737635879038]
本稿では,物体境界に対するニューラルネットワークの注意を促すことを目的としたMask Point R-CNNを提案する。
具体的には、従来の人間のキーポイント検出タスクを、任意のオブジェクトの輪郭点検出に革新的に拡張する。
その結果、モデルはオブジェクトの端に対してより敏感になり、より幾何学的な特徴を捉えることができる。
論文 参考訳(メタデータ) (2020-08-02T11:11:28Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z) - Weakly Supervised Instance Segmentation by Deep Community Learning [39.18749732409763]
複数のタスクによる深層コミュニティ学習に基づく弱教師付きインスタンスセグメンテーションアルゴリズムを提案する。
我々は、統合されたディープニューラルネットワークアーキテクチャを設計することでこの問題に対処する。
提案アルゴリズムは、弱教師付き設定における最先端性能を実現する。
論文 参考訳(メタデータ) (2020-01-30T08:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。