論文の概要: Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion
- arxiv url: http://arxiv.org/abs/2012.02107v3
- Date: Thu, 1 Apr 2021 13:32:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:52:47.498058
- Title: Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion
- Title(参考訳): マルチオブジェクトオクルージョンの推論によるロバストインスタンスセグメンテーション
- Authors: Xiaoding Yuan, Adam Kortylewski, Yihong Sun and Alan Yuille
- Abstract要約: 本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
- 参考スコア(独自算出の注目度): 9.536947328412198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing complex scenes with Deep Neural Networks is a challenging task,
particularly when images contain multiple objects that partially occlude each
other. Existing approaches to image analysis mostly process objects
independently and do not take into account the relative occlusion of nearby
objects. In this paper, we propose a deep network for multi-object instance
segmentation that is robust to occlusion and can be trained from bounding box
supervision only. Our work builds on Compositional Networks, which learn a
generative model of neural feature activations to locate occluders and to
classify objects based on their non-occluded parts. We extend their generative
model to include multiple objects and introduce a framework for efficient
inference in challenging occlusion scenarios. In particular, we obtain
feed-forward predictions of the object classes and their instance and occluder
segmentations. We introduce an Occlusion Reasoning Module (ORM) that locates
erroneous segmentations and estimates the occlusion order to correct them. The
improved segmentation masks are, in turn, integrated into the network in a
top-down manner to improve the image classification. Our experiments on the
KITTI INStance dataset (KINS) and a synthetic occlusion dataset demonstrate the
effectiveness and robustness of our model at multi-object instance segmentation
under occlusion. Code is publically available at
https://github.com/XD7479/Multi-Object-Occlusion.
- Abstract(参考訳): 複雑なシーンをディープニューラルネットワークで分析することは、特に画像が部分的にお互いを遮蔽する複数のオブジェクトを含む場合、難しい課題である。
画像解析に対する既存のアプローチは、主にオブジェクトを独立に処理し、近くのオブジェクトの相対的な閉塞を考慮しない。
本稿では,隠蔽に頑健で,バウンディングボックスの監視のみからトレーニングできるマルチオブジェクトインスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学び、Occluderを見つけ、非Occluded部分に基づいてオブジェクトを分類するコンポジションネットワークを構築しています。
複数のオブジェクトを含むように生成モデルを拡張し、オクルージョンシナリオに対する効率的な推論のためのフレームワークを導入します。
特に、オブジェクトクラスとそのインスタンスとoccluderセグメンテーションのフィードフォワード予測を得る。
不正なセグメンテーションを検知し、その修正のためにオクルージョン順序を推定するOcclusion Reasoning Module(ORM)を導入する。
改良されたセグメンテーションマスクは、画像分類を改善するためにトップダウン方式でネットワークに統合される。
KITTIインスタンスデータセット(KINS)と合成オクルージョンデータセットを用いた実験により、オクルージョン下でのマルチオブジェクトインスタンスセグメンテーションにおけるモデルの有効性とロバスト性を示した。
コードはhttps://github.com/XD7479/Multi-Object-Occlusionで公開されている。
関連論文リスト
- 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Occlusion-Aware Instance Segmentation via BiLayer Network Architectures [73.45922226843435]
本稿では,2層畳み込みネットワーク(BCNet)を提案する。このネットワークでは,トップ層がオブジェクト(オブオーバ)を検出し,ボトム層が部分的にオブオーバドされたインスタンス(オブオーバド)を推測する。
一般的な畳み込みネットワーク設計,すなわちFCN(Fully Convolutional Network)とGCN(Graph Convolutional Network)を用いた2層構造の有効性について検討する。
論文 参考訳(メタデータ) (2022-08-08T21:39:26Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Deep Occlusion-Aware Instance Segmentation with Overlapping BiLayers [72.38919601150175]
高オーバーラップオブジェクトをセグメント化するBilayer Convolutional Network (BCNet)を提案する。
BCNetはオクルージョンオブジェクト(Occluder)を検出し、ボトムGCN層は部分的にOccludedインスタンス(Occludee)を推論する
論文 参考訳(メタデータ) (2021-03-23T06:25:42Z) - CellSegmenter: unsupervised representation learning and instance
segmentation of modular images [0.0]
本稿では,教師なし表現学習とインスタンスセグメンテーションタスクのための構造化された深層生成モデルとアモータイズ推論フレームワークを提案する。
提案した推論アルゴリズムは、再帰的なメカニズムなしで畳み込み並列化されている。
細胞核イメージングデータセットで得られたセグメンテーション結果を示し,高品質なセグメンテーションを実現するための手法の有効性を示した。
論文 参考訳(メタデータ) (2020-11-25T02:10:58Z) - Compositional Convolutional Neural Networks: A Robust and Interpretable
Model for Object Recognition under Occlusion [21.737411464598797]
ブラックボックス深部畳み込みニューラルネットワーク(DCNN)は,部分閉塞に対する頑健性に限界がある。
構成畳み込みニューラルネットワーク(CompositionalNets)に部分ベースモデルとDCNNを統合することで、これらの制限を克服する。
実験により,コンポジションネットは,部分閉塞物体の分類・検出において,非構成対象に比べて大きなマージンで改善されていることが示された。
論文 参考訳(メタデータ) (2020-06-28T08:18:19Z) - Robust Object Detection under Occlusion with Context-Aware
CompositionalNets [21.303976151518125]
構成畳み込みニューラルネットワーク(CompositionalNets)は、隠蔽対象の分類において堅牢であることが示されている。
そこで我々は,コンポジションネットの2つの制限を克服し,部分的に隠蔽されたオブジェクトを検出することを提案する。
論文 参考訳(メタデータ) (2020-05-24T02:57:34Z) - Weakly Supervised Instance Segmentation by Deep Community Learning [39.18749732409763]
複数のタスクによる深層コミュニティ学習に基づく弱教師付きインスタンスセグメンテーションアルゴリズムを提案する。
我々は、統合されたディープニューラルネットワークアーキテクチャを設計することでこの問題に対処する。
提案アルゴリズムは、弱教師付き設定における最先端性能を実現する。
論文 参考訳(メタデータ) (2020-01-30T08:35:42Z) - Instance Segmentation of Visible and Occluded Regions for Finding and
Picking Target from a Pile of Objects [25.836334764387498]
本研究では,対象物体の発見・把握が可能な物体の山から対象物を選択するロボットシステムを提案する。
既存のインスタンスセグメンテーションモデルを新しいリルックアーキテクチャで拡張し、モデルがインスタンス間の関係を明示的に学習する。
また、画像合成により、人間のアノテーションを使わずに新しいオブジェクトを処理できるシステムを構築する。
論文 参考訳(メタデータ) (2020-01-21T12:28:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。