論文の概要: Robust Object Detection under Occlusion with Context-Aware
CompositionalNets
- arxiv url: http://arxiv.org/abs/2005.11643v2
- Date: Sat, 30 May 2020 14:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 13:51:37.189821
- Title: Robust Object Detection under Occlusion with Context-Aware
CompositionalNets
- Title(参考訳): コンテクストアウェア合成による咬合下のロバスト物体検出
- Authors: Angtian Wang, Yihong Sun, Adam Kortylewski, Alan Yuille
- Abstract要約: 構成畳み込みニューラルネットワーク(CompositionalNets)は、隠蔽対象の分類において堅牢であることが示されている。
そこで我々は,コンポジションネットの2つの制限を克服し,部分的に隠蔽されたオブジェクトを検出することを提案する。
- 参考スコア(独自算出の注目度): 21.303976151518125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting partially occluded objects is a difficult task. Our experimental
results show that deep learning approaches, such as Faster R-CNN, are not
robust at object detection under occlusion. Compositional convolutional neural
networks (CompositionalNets) have been shown to be robust at classifying
occluded objects by explicitly representing the object as a composition of
parts. In this work, we propose to overcome two limitations of
CompositionalNets which will enable them to detect partially occluded objects:
1) CompositionalNets, as well as other DCNN architectures, do not explicitly
separate the representation of the context from the object itself. Under strong
object occlusion, the influence of the context is amplified which can have
severe negative effects for detection at test time. In order to overcome this,
we propose to segment the context during training via bounding box annotations.
We then use the segmentation to learn a context-aware CompositionalNet that
disentangles the representation of the context and the object. 2) We extend the
part-based voting scheme in CompositionalNets to vote for the corners of the
object's bounding box, which enables the model to reliably estimate bounding
boxes for partially occluded objects. Our extensive experiments show that our
proposed model can detect objects robustly, increasing the detection
performance of strongly occluded vehicles from PASCAL3D+ and MS-COCO by 41% and
35% respectively in absolute performance relative to Faster R-CNN.
- Abstract(参考訳): 部分的に隠されたオブジェクトを検出するのは難しい作業です。
実験の結果,より高速なR-CNNのような深層学習手法は,閉塞下での物体検出において堅牢ではないことがわかった。
構成畳み込みニューラルネットワーク(CompositionalNets)は、対象を部品の合成として明示的に表現することで、隠蔽対象を分類する上で堅牢であることが示されている。
そこで本研究では,部分閉塞物体の検出を可能にするコンポジションアルネットの2つの限界を克服する。
1) ComposalNetsは、他のDCNNアーキテクチャと同様に、コンテキストの表現をオブジェクト自身から明示的に分離するものではない。
強い物体の閉塞下では、コンテキストの影響が増幅され、テスト時の検出に重大な負の影響が生じる。
これを解決するために,ボックスアノテーションによるトレーニング中にコンテキストのセグメンテーションを提案する。
次に、セグメンテーションを使用して、コンテキストとオブジェクトの表現をアンタングルするコンポジションネットを学習します。
2) 部分ベースの投票方式をコンポジションアルネットに拡張し, オブジェクトのバウンディングボックスの隅角に投票することで, 部分的に占有されたオブジェクトのバウンディングボックスを確実に見積もることができる。
提案モデルでは, PASCAL3D+ と MS-COCO をそれぞれ 41% と 35% で検出し, 高速R-CNN と比較して絶対性能が 35% 向上した。
関連論文リスト
- Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - A Tri-Layer Plugin to Improve Occluded Detection [100.99802831241583]
本研究では,2段階物体検出装置の頭部検出のための単純な''モジュールを提案し,部分閉塞物体のリコールを改善する。
モジュールは、ターゲットオブジェクト、オクルーダー、オクラデーのセグメンテーションマスクの三層を予測し、それによってターゲットオブジェクトのマスクをより正確に予測することができる。
また,COCO評価データセットを構築し,部分閉塞オブジェクトと分離オブジェクトのリコール性能を測定した。
論文 参考訳(メタデータ) (2022-10-18T17:59:51Z) - ComplETR: Reducing the cost of annotations for object detection in dense
scenes with vision transformers [73.29057814695459]
ComplETRは、部分的にアノテートされた高密度なシーンデータセットで欠落したアノテーションを明示的に補完するように設計されている。
これにより、シーン内のすべてのオブジェクトインスタンスに注釈を付ける必要がなくなり、アノテーションのコストが削減される。
本稿では, 高速R-CNN, カスケードR-CNN, CenterNet2, Deformable DETRなどの人気検出器の性能向上を示す。
論文 参考訳(メタデータ) (2022-09-13T00:11:16Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - Deep Occlusion-Aware Instance Segmentation with Overlapping BiLayers [72.38919601150175]
高オーバーラップオブジェクトをセグメント化するBilayer Convolutional Network (BCNet)を提案する。
BCNetはオクルージョンオブジェクト(Occluder)を検出し、ボトムGCN層は部分的にOccludedインスタンス(Occludee)を推論する
論文 参考訳(メタデータ) (2021-03-23T06:25:42Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z) - Compositional Convolutional Neural Networks: A Robust and Interpretable
Model for Object Recognition under Occlusion [21.737411464598797]
ブラックボックス深部畳み込みニューラルネットワーク(DCNN)は,部分閉塞に対する頑健性に限界がある。
構成畳み込みニューラルネットワーク(CompositionalNets)に部分ベースモデルとDCNNを統合することで、これらの制限を克服する。
実験により,コンポジションネットは,部分閉塞物体の分類・検出において,非構成対象に比べて大きなマージンで改善されていることが示された。
論文 参考訳(メタデータ) (2020-06-28T08:18:19Z) - Compositional Convolutional Neural Networks: A Deep Architecture with
Innate Robustness to Partial Occlusion [18.276428975330813]
近年の研究では、ディープ畳み込みニューラルネットワーク(DCNN)は部分閉塞下では十分に一般化していないことが示されている。
部分閉塞物体の分類における構成モデルの成功に触発されて,我々は合成モデルとDCNNを統合された深部モデルに統合することを提案する。
人工隠蔽画像の分類実験と,MS-COCOデータセットから部分的に隠蔽された物体の実画像の分類実験を行った。
提案手法は, 学習中に隠蔽対象に露出していない場合でも, 部分的に隠蔽対象を分類し, 標準的なDCNNよりも優れていた。
論文 参考訳(メタデータ) (2020-03-10T01:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。