論文の概要: Open-Set Object Detection Using Classification-free Object Proposal and
Instance-level Contrastive Learning
- arxiv url: http://arxiv.org/abs/2211.11530v2
- Date: Mon, 4 Dec 2023 02:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 01:52:29.377016
- Title: Open-Set Object Detection Using Classification-free Object Proposal and
Instance-level Contrastive Learning
- Title(参考訳): 分類なしオブジェクト提案とインスタンスレベルのコントラスト学習を用いたオープンセットオブジェクト検出
- Authors: Zhongxiang Zhou, Yifei Yang, Yue Wang, Rong Xiong
- Abstract要約: オープンセットオブジェクト検出(OSOD)は、オブジェクトと背景分離、オープンセットオブジェクト分類という2つのサブタスクからなる問題を処理するための有望な方向である。
我々は,OSODの課題に対処するため,Openset RCNNを提案する。
我々のOpenset RCNNは、散らばった環境下でロボットの並べ替えタスクをサポートするオープンセットの知覚能力でロボットを支援できることを示します。
- 参考スコア(独自算出の注目度): 25.935629339091697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting both known and unknown objects is a fundamental skill for robot
manipulation in unstructured environments. Open-set object detection (OSOD) is
a promising direction to handle the problem consisting of two subtasks: objects
and background separation, and open-set object classification. In this paper,
we present Openset RCNN to address the challenging OSOD. To disambiguate
unknown objects and background in the first subtask, we propose to use
classification-free region proposal network (CF-RPN) which estimates the
objectness score of each region purely using cues from object's location and
shape preventing overfitting to the training categories. To identify unknown
objects in the second subtask, we propose to represent them using the
complementary region of known categories in a latent space which is
accomplished by a prototype learning network (PLN). PLN performs instance-level
contrastive learning to encode proposals to a latent space and builds a compact
region centering with a prototype for each known category. Further, we note
that the detection performance of unknown objects can not be unbiasedly
evaluated on the situation that commonly used object detection datasets are not
fully annotated. Thus, a new benchmark is introduced by reorganizing
GraspNet-1billion, a robotic grasp pose detection dataset with complete
annotation. Extensive experiments demonstrate the merits of our method. We
finally show that our Openset RCNN can endow the robot with an open-set
perception ability to support robotic rearrangement tasks in cluttered
environments. More details can be found in
https://sites.google.com/view/openset-rcnn/
- Abstract(参考訳): 既知のオブジェクトと未知のオブジェクトの両方を検出することは、非構造化環境でのロボット操作の基本的なスキルである。
オープンセットオブジェクト検出(OSOD)は、オブジェクトと背景分離、オープンセットオブジェクト分類という2つのサブタスクからなる問題を処理するための有望な方向である。
本稿では,OSODの課題に対処するため,Openset RCNNを提案する。
第1のサブタスクで未知のオブジェクトと背景を曖昧にするために,各領域の対象性スコアを,対象の位置と形状から純粋に推定し,トレーニングカテゴリへの過度な適合を防ぐ分類フリー領域提案ネットワーク(cf-rpn)を提案する。
第2のサブタスクで未知のオブジェクトを識別するために,プロトタイプ学習ネットワーク(PLN)により達成された潜在空間における既知のカテゴリの補完領域を用いて表現することを提案する。
PLNはインスタンスレベルのコントラスト学習を行い、提案を潜在空間にエンコードし、既知のカテゴリごとにプロトタイプを中心としたコンパクトな領域を構築する。
また、一般に使用されるオブジェクト検出データセットが完全にアノテートされていない状況では、未知のオブジェクトの検出性能を偏りなく評価できないことに注意する。
これにより、完全なアノテーションを備えたロボットグリップポーズ検出データセットであるGraspNet-1billionを再編成することで、新しいベンチマークが導入された。
広範な実験が我々の方法の利点を示している。
最終的に、私たちのOpenset RCNNは、散らかった環境でロボットの並べ替えタスクをサポートするオープンセットの知覚能力でロボットを支援できることを示した。
詳細はhttps://sites.google.com/view/openset-rcnn/にある。
関連論文リスト
- Exploiting Unlabeled Data with Multiple Expert Teachers for Open Vocabulary Aerial Object Detection and Its Orientation Adaptation [58.37525311718006]
OVAD(Open-vocabulary Aero Object Detection)という,航空物体検出問題の新しい定式化を行った。
本稿では,CLIP-activated students-Teacher DetectionフレームワークであるCastDetを提案する。
本フレームワークは,ロバストなローカライズ教師といくつかのボックス選択戦略を統合し,新しいオブジェクトの高品質な提案を生成する。
論文 参考訳(メタデータ) (2024-11-04T12:59:13Z) - Few-shot Object Detection in Remote Sensing: Lifting the Curse of
Incompletely Annotated Novel Objects [23.171410277239534]
物体検出のための自己学習型FSOD (ST-FSOD) アプローチを提案する。
提案手法は,様々なFSOD設定における最先端性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2023-09-19T13:00:25Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Grounding DINO: Marrying DINO with Grounded Pre-Training for Open-Set Object Detection [76.5120397167247]
そこで我々は,Transformer-based detector DINO と接地事前学習を併用したオープンセット型物体検出器である Grounding DINO を提案する。
オープンセットオブジェクト検出の鍵となる解決策は、オープンセットの概念一般化のためのクローズドセット検出器に言語を導入することである。
DINOはCOCO、LVIS、ODinW、RefCOCO/+/gのベンチマークを含む3つの設定で非常によく機能する。
論文 参考訳(メタデータ) (2023-03-09T18:52:16Z) - Open World DETR: Transformer based Open World Object Detection [60.64535309016623]
そこで我々は,Deformable DETRに基づくオープンワールドオブジェクト検出のための2段階学習手法Open World DETRを提案する。
モデルのクラス固有のコンポーネントを多視点の自己ラベル戦略と一貫性制約で微調整する。
提案手法は、他の最先端のオープンワールドオブジェクト検出方法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-12-06T13:39:30Z) - PROB: Probabilistic Objectness for Open World Object Detection [15.574535196804042]
Open World Object Detection (OWOD)は、従来のオブジェクト検出(OD)ベンチマークと現実世界におけるオブジェクト検出のギャップを埋める新しいコンピュータビジョンタスクである。
本稿では,対象物の確率分布推定と対象度推定を交互に行う,対象度推定のための新しい確率的フレームワークを提案する。
Probabilistic Objectness-based open-world detector, PROBは、私たちのフレームワークを従来のオブジェクト検出モデルに統合します。
論文 参考訳(メタデータ) (2022-12-02T20:04:24Z) - Towards Open-Set Object Detection and Discovery [38.81806249664884]
我々は新しいタスク、すなわちOpen-Set Object Detection and Discovery(OSODD)を提案する。
本稿では、まずオープンセットオブジェクト検出器を用いて、未知のオブジェクトと未知のオブジェクトの両方を予測する2段階の手法を提案する。
そこで,予測対象を教師なしで表現し,未知対象の集合から新たなカテゴリを発見する。
論文 参考訳(メタデータ) (2022-04-12T08:07:01Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。