論文の概要: BBBD: Bounding Box Based Detector for Occlusion Detection and Order
Recovery
- arxiv url: http://arxiv.org/abs/2204.12841v1
- Date: Wed, 27 Apr 2022 10:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:16:36.996607
- Title: BBBD: Bounding Box Based Detector for Occlusion Detection and Order
Recovery
- Title(参考訳): BBBD:Occlusion Detection and Order Recoveryのためのバウンディングボックスベース検出器
- Authors: Kaziwa Saleh, Zoltan Vamossy
- Abstract要約: オクルージョンハンドリングは、オブジェクトの検出とセグメンテーション、シーン理解の課題の1つである。
トレーニングなしで両方の操作を実行でき、モーダルセグメンテーションマスクのみを必要とする、よりシンプルで高速な手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occlusion handling is one of the challenges of object detection and
segmentation, and scene understanding. Because objects appear differently when
they are occluded in varying degree, angle, and locations. Therefore,
determining the existence of occlusion between objects and their order in a
scene is a fundamental requirement for semantic understanding. Existing works
mostly use deep learning based models to retrieve the order of the instances in
an image or for occlusion detection. This requires labelled occluded data and
it is time consuming. In this paper, we propose a simpler and faster method
that can perform both operations without any training and only requires the
modal segmentation masks. For occlusion detection, instead of scanning the two
objects entirely, we only focus on the intersected area between their bounding
boxes. Similarly, we use the segmentation mask inside the same area to recover
the depth-ordering. When tested on COCOA dataset, our method achieves +8% and
+5% more accuracy than the baselines in order recovery and occlusion detection
respectively.
- Abstract(参考訳): オクルージョンハンドリングは、オブジェクト検出とセグメンテーション、そしてシーン理解の課題の1つである。
なぜなら、物体は様々な程度、角度、位置で隠されているときに異なる形で現れるからである。
したがって、対象とそれらの順序の間の咬合の存在を決定することは、意味理解の基本的な要件である。
既存の作業は、主にディープラーニングベースのモデルを使用して、画像中のインスタンスの順序や閉塞検出を検索する。
これはラベル付きoccludedデータを必要とし、時間がかかります。
本稿では,訓練なしで両方の操作を行うことができ,モード分割マスクのみを必要とする簡易かつ高速な手法を提案する。
閉塞検出では、2つの物体を完全にスキャンする代わりに、境界ボックス間の交差領域のみに焦点を当てる。
同様に、同じ領域内のセグメンテーションマスクを用いて、深度秩序を回復する。
COCOAデータセットで試験すると, 基準値よりも8%, 5%の精度が得られ, オーダーリカバリとオクルージョン検出の精度が向上した。
関連論文リスト
- LESS: Label-Efficient and Single-Stage Referring 3D Segmentation [55.06002976797879]
参照3Dは、クエリの文で記述された3Dポイントクラウドから、指定されたオブジェクトのすべてのポイントをセグメントする視覚言語タスクである。
本稿では,LESSと呼ばれるレファレンス3次元パイプラインを提案する。
ScanReferデータセット上での最先端のパフォーマンスは、バイナリラベルのみを使用して、以前の3.7% mIoUの手法を上回ります。
論文 参考訳(メタデータ) (2024-10-17T07:47:41Z) - MonoMAE: Enhancing Monocular 3D Detection through Depth-Aware Masked Autoencoders [93.87585467898252]
Masked Autoencodersにインスパイアされたモノクラー3D検出器MonoMAEを設計する。
MonoMAEは2つの新しい設計で構成されている。第一に、非閉塞オブジェクトクエリの特定の部分を選択的にマスキングするディープ・アウェア・マスクである。
2つ目は軽量なクエリ補完で、ディープ・アウェア・マスキングと連携して、マスキングされたオブジェクトクエリの再構築と完了を学習する。
論文 参考訳(メタデータ) (2024-05-13T12:32:45Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - A Simple Framework for Open-Vocabulary Segmentation and Detection [85.21641508535679]
我々は,異なるセグメンテーションと検出データセットから共同で学習する,シンプルなオープン語彙検出フレームワークOpenSeeDを提案する。
まず、事前学習されたテキストエンコーダを導入し、視覚概念を2つのタスクにエンコードし、それらの共通意味空間を学習する。
プレトレーニング後,本モデルでは,セグメンテーションと検出の両方において,競争力あるいは強いゼロショット転送性を示す。
論文 参考訳(メタデータ) (2023-03-14T17:58:34Z) - Robust Visual Tracking by Segmentation [103.87369380021441]
対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
論文 参考訳(メタデータ) (2022-03-21T17:59:19Z) - Deep Occlusion-Aware Instance Segmentation with Overlapping BiLayers [72.38919601150175]
高オーバーラップオブジェクトをセグメント化するBilayer Convolutional Network (BCNet)を提案する。
BCNetはオクルージョンオブジェクト(Occluder)を検出し、ボトムGCN層は部分的にOccludedインスタンス(Occludee)を推論する
論文 参考訳(メタデータ) (2021-03-23T06:25:42Z) - IterDet: Iterative Scheme for Object Detection in Crowded Environments [6.2997667081978825]
ディープラーニングベースの検出器は通常、冗長なオブジェクト境界ボックスを生成する。
これらのボックスは、興味のある対象ごとに正確に1つのバウンディングボックスを選択するために、NMS(Non-maximum suppress)を使用してフィルタリングされる。
この欲求スキームは単純で、孤立したオブジェクトに対して十分な精度を提供するが、しばしば混み合った環境で失敗する。
本研究では、各イテレーションで新しいオブジェクトのサブセットを検出する、代替的な反復スキームを開発する。
論文 参考訳(メタデータ) (2020-05-12T12:04:27Z) - Instance Segmentation of Biomedical Images with an Object-aware
Embedding Learned with Local Constraints [7.151685185368064]
State-of-the-artアプローチはセマンティックセグメンテーションまたは洗練されたオブジェクトバウンディングボックスを実行する。
どちらも、隣のオブジェクトをマージしたり、有効なオブジェクトを抑圧したりして、さまざまな程度に混雑するオブジェクトに悩まされる。
本研究では,深層ニューラルネットワークを用いて各画素に埋め込みベクトルを割り当てる。
論文 参考訳(メタデータ) (2020-04-21T08:33:29Z) - BANet: Bidirectional Aggregation Network with Occlusion Handling for
Panoptic Segmentation [30.008473359758632]
Panoptic segmentationは、フォアグラウンドインスタンスのインスタンスセグメンテーションと、バックグラウンドオブジェクトのセマンティックセグメンテーションを同時に行うことを目的としている。
本稿では,双方向学習パイプラインに基づく新しい深部汎視的セグメンテーション手法を提案する。
COCOパン光学ベンチマーク実験の結果,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-03-31T08:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。