論文の概要: Amodal Intra-class Instance Segmentation: Synthetic Datasets and
Benchmark
- arxiv url: http://arxiv.org/abs/2303.06596v2
- Date: Tue, 7 Nov 2023 11:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 19:59:05.233010
- Title: Amodal Intra-class Instance Segmentation: Synthetic Datasets and
Benchmark
- Title(参考訳): Amodal Under-class Instance Segmentation: 合成データセットとベンチマーク
- Authors: Jiayang Ao, Qiuhong Ke, Krista A. Ehinger
- Abstract要約: 本稿では、画像アモーダル完了タスクのための2つの新しいアモーダルデータセットを提案する。
また,アモーダル・インスタンス・セグメンテーションのための事前レイヤを持つ点教師付きスキームを提案する。
実験により、我々の弱教師付きアプローチはSOTAの完全教師付き手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 17.6780586288079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Images of realistic scenes often contain intra-class objects that are heavily
occluded from each other, making the amodal perception task that requires
parsing the occluded parts of the objects challenging. Although important for
downstream tasks such as robotic grasping systems, the lack of large-scale
amodal datasets with detailed annotations makes it difficult to model
intra-class occlusions explicitly. This paper introduces two new amodal
datasets for image amodal completion tasks, which contain a total of over 267K
images of intra-class occlusion scenarios, annotated with multiple masks,
amodal bounding boxes, dual order relations and full appearance for instances
and background. We also present a point-supervised scheme with layer priors for
amodal instance segmentation specifically designed for intra-class occlusion
scenarios. Experiments show that our weakly supervised approach outperforms the
SOTA fully supervised methods, while our layer priors design exhibits
remarkable performance improvements in the case of intra-class occlusion in
both synthetic and real images.
- Abstract(参考訳): 現実的なシーンのイメージは、しばしば、互いに密接な関係にあるクラス内オブジェクトを含んでおり、オブジェクトの隠された部分を解析する必要のあるアモーダルな知覚タスクを困難にしている。
ロボット把持システムなどの下流タスクでは重要であるが,詳細なアノテーションを用いた大規模アモーダルデータセットの欠如により,クラス内オクルージョンを明示的にモデル化することは困難である。
本稿では,複数のマスク,アモーダルバウンディングボックス,二重順序関係,インスタンスとバックグラウンドの完全な出現を含む,クラス内閉塞シナリオの合計267Kイメージを含む,画像アモーダル完了タスクのための2つの新しいアモーダルデータセットを提案する。
また,クラス内オクルージョンシナリオ用に特別に設計されたアモーダルインスタンスセグメンテーションに対して,レイヤプリエントを用いた点教師付きスキームを提案する。
実験により, 弱教師付きアプローチは, sota完全教師付き手法よりも優れており, また, 合成画像と実画像の両方においてクラス内咬合の場合, 層先行設計は顕著な性能改善を示した。
関連論文リスト
- BLADE: Box-Level Supervised Amodal Segmentation through Directed
Expansion [10.57956193654977]
Boxレベルの教師付きアモーダルセグメンテーションは、この課題に対処する。
可視マスクから対応するアモーダルマスクへの指向性拡張アプローチを導入することで,新しい解を提案する。
このアプローチでは、オーバーラップする領域 – 異なるインスタンスが交わる領域 – に基づいた、ハイブリッドなエンドツーエンドネットワークが関係しています。
論文 参考訳(メタデータ) (2024-01-03T09:37:03Z) - Amodal Ground Truth and Completion in the Wild [92.36449676571237]
我々は3Dデータを用いて、実画像中の部分的に隠蔽された物体に対して、真偽のアモーダルマスクを決定するための自動パイプラインを確立する。
このパイプラインは、アモーダル完了評価ベンチマーク、MP3D-Amodalを構築するために使用される。
提案手法は,Amodalセグメンテーションデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-12-28T18:59:41Z) - Tracking Any Object Amodally [48.68480442441279]
TAO-Amodalベンチマークを導入し、数千の動画シーケンスに880の多様なカテゴリを特徴付ける。
私たちのデータセットには、部分的にフレーム外であるオブジェクトを含む、可視および隠蔽オブジェクトのためのアモーダルおよびモーダルバウンディングボックスが含まれています。
TAO-Amodal上での閉塞物体の検出・追跡における3.3%と1.6%の改善を実現した。
論文 参考訳(メタデータ) (2023-12-19T18:58:40Z) - Leveraging Foundation models for Unsupervised Audio-Visual Segmentation [49.94366155560371]
AVS (Audio-Visual) は、可聴物体をピクセルレベルの視覚シーンで正確に概説することを目的としている。
既存のAVS手法では、教師付き学習方式でオーディオマスク対の細かいアノテーションを必要とする。
タスク固有のデータアノテーションやモデルトレーニングを必要とせず、教師なしの音声-視覚的セグメンテーションを導入する。
論文 参考訳(メタデータ) (2023-09-13T05:05:47Z) - Self-supervised Amodal Video Object Segmentation [57.929357732733926]
アモーダル知覚は、部分的に隠されている物体の完全な形状を推測する必要がある。
本稿では、アモーダルビデオオブジェクトセグメンテーション(SaVos)の新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-23T14:09:35Z) - Perceiving the Invisible: Proposal-Free Amodal Panoptic Segmentation [13.23676270963484]
アモーダル・パノプティクス・セグメンテーションは、世界の認識と認知的理解を結びつけることを目的としている。
我々は、このタスクをマルチラベルおよびマルチクラス問題として扱う、プロポーザルフリーフレームワークを定式化する。
共有バックボーンと非対称なデュアルデコーダを組み込んだネットアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-05-29T12:05:07Z) - A Weakly Supervised Amodal Segmenter with Boundary Uncertainty
Estimation [35.103437828235826]
本稿では,弱教師付きアモーダルインスタンスセグメンテーションについて述べる。
目標は、可視部分と隠蔽部分の両方をセグメント化することであり、トレーニングは、地平線可視部分(モダル部分)のみを提供する。
論文 参考訳(メタデータ) (2021-08-23T02:27:29Z) - Amodal Segmentation through Out-of-Task and Out-of-Distribution
Generalization with a Bayesian Model [19.235173141731885]
アモーダル補完は人間が容易に実行できる視覚的タスクであるが、コンピュータビジョンアルゴリズムでは難しい。
我々は、アモーダルセグメンテーションをout-of-taskおよびout-of-distribution generalization問題として定式化する。
我々のアルゴリズムは、同じ監督方法を使用する代替手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-10-25T18:01:26Z) - Example-Guided Image Synthesis across Arbitrary Scenes using Masked
Spatial-Channel Attention and Self-Supervision [83.33283892171562]
実例誘導画像合成は,最近セマンティックラベルマップと模範画像から画像を合成するために試みられている。
本稿では,ラベルマップと意味的に異なる任意のシーンイメージを例に,より困難で汎用的な課題に取り組む。
本稿では,グローバル・ローカルな特徴アライメントと合成のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-18T18:17:40Z) - Self-Supervised Scene De-occlusion [186.89979151728636]
本稿では,隠蔽対象の隠蔽順序を復元し,隠蔽対象の見えない部分を完成させることを目的としたシーン非隠蔽問題について検討する。
そこで本研究では,隠されたシーン構造を監視対象として指示やアモーダルアノテーションを使わずに復元する,新規で統一的なフレームワークを用いて,この問題に対処する試みを行う。
そこで,PCNet-M と PCNet-C をベースとして,プログレッシブ・オーダリング・リカバリ,アモーダル・コンプリーメント,コンテント・コンプリートを通じてシーン・デオクルージョンを実現する新しい推論手法を考案した。
論文 参考訳(メタデータ) (2020-04-06T16:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。