論文の概要: Amodal Cityscapes: A New Dataset, its Generation, and an Amodal Semantic
Segmentation Challenge Baseline
- arxiv url: http://arxiv.org/abs/2206.00527v1
- Date: Wed, 1 Jun 2022 14:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 12:15:18.094297
- Title: Amodal Cityscapes: A New Dataset, its Generation, and an Amodal Semantic
Segmentation Challenge Baseline
- Title(参考訳): amodal cityscapes: 新しいデータセット、その生成、およびamodal semantic segmentation challengeのベースライン
- Authors: Jasmin Breitenstein and Tim Fingscheidt
- Abstract要約: 本稿では,アモーダルなセマンティックセグメンテーションの課題を考察し,アモーダルなセマンティックセグメンテーションを訓練するためのデータセットを生成する汎用的な方法を提案する。
この手法を用いて、自動車環境認識におけるアモーダルなセマンティックセグメンテーションの適用性を示すアモーダルなCityscapesデータセットを生成する。
- 参考スコア(独自算出の注目度): 38.8592627329447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amodal perception terms the ability of humans to imagine the entire shapes of
occluded objects. This gives humans an advantage to keep track of everything
that is going on, especially in crowded situations. Typical perception
functions, however, lack amodal perception abilities and are therefore at a
disadvantage in situations with occlusions. Complex urban driving scenarios
often experience many different types of occlusions and, therefore, amodal
perception for automated vehicles is an important task to investigate. In this
paper, we consider the task of amodal semantic segmentation and propose a
generic way to generate datasets to train amodal semantic segmentation methods.
We use this approach to generate an amodal Cityscapes dataset. Moreover, we
propose and evaluate a method as baseline on Amodal Cityscapes, showing its
applicability for amodal semantic segmentation in automotive environment
perception. We provide the means to re-generate this dataset on github.
- Abstract(参考訳): アモーダル知覚は、隠された物体の全体像を想像する人間の能力を意味する。
これによって人間は、特に混み合った状況で起きていることをすべて追跡できるという利点がある。
しかし、典型的な知覚機能は無様知覚能力に欠けており、それゆえ咬合状況では不利である。
複雑な都市交通シナリオは、しばしば様々な種類の閉塞を経験するので、自動運転車に対するアモーダルな認識は調査にとって重要な課題である。
本稿では,amodal semantic segmentation の課題を検討し,amodal semantic segmentation 法を学習するためのデータセットを生成する汎用的な方法を提案する。
このアプローチを使って、amodal Cityscapesデータセットを生成します。
さらに,amodal cityscapesのベースラインとしての提案と評価を行い,自動車環境知覚におけるamodal semantic segmentationの適用性を示した。
このデータセットをgithubで再生成する手段を提供します。
関連論文リスト
- Amodal Ground Truth and Completion in the Wild [84.54972153436466]
我々は3Dデータを用いて、実画像中の部分的に隠蔽された物体に対して、真偽のアモーダルマスクを決定するための自動パイプラインを確立する。
このパイプラインは、様々なオブジェクトカテゴリとラベルからなるアモーダル完了評価ベンチマークMP3D-Amodalを構築するために使用される。
論文 参考訳(メタデータ) (2023-12-28T18:59:41Z) - TAO-Amodal: A Benchmark for Tracking Any Object Amodally [41.5396827282691]
TAO-Amodalは,数千の動画シーケンスにおいて833の多様なカテゴリを特徴とする。
私たちのデータセットには、カメラフレームから部分的に外れたものを含む、可視または部分的に、あるいは完全に隠されたオブジェクトのための、テクスタモーダルおよびモーダルバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2023-12-19T18:58:40Z) - AmodalSynthDrive: A Synthetic Amodal Perception Dataset for Autonomous
Driving [10.928470926399566]
マルチタスク・マルチモーダル・アモーダル認識データセットであるAmodal SynthDriveを紹介する。
このデータセットは、150のドライブシーケンスに対して、マルチビューカメライメージ、3Dバウンディングボックス、LiDARデータ、およびオドメトリーを提供する。
Amodal SynthDriveは、導入されたアモーダル深度推定を含む複数のアモーダルシーン理解タスクをサポートする。
論文 参考訳(メタデータ) (2023-09-12T19:46:15Z) - Shelving, Stacking, Hanging: Relational Pose Diffusion for Multi-modal
Rearrangement [49.888011242939385]
本研究では,シーン内のオブジェクトを並べ替えて,所望のオブジェクトとシーンの配置関係を実現するシステムを提案する。
パイプラインは、新しいジオメトリ、ポーズ、シーンとオブジェクトのレイアウトに一般化される。
論文 参考訳(メタデータ) (2023-07-10T17:56:06Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - AutoLay: Benchmarking amodal layout estimation for autonomous driving [18.152206533685412]
AutoLayはモノクロ画像からアモーダルレイアウトを推定するためのデータセットとベンチマークである。
また,車線,歩道,車両などの微粒な属性に加えて,意味的に注釈付けされた3次元点雲も提供する。
論文 参考訳(メタデータ) (2021-08-20T08:21:11Z) - Amodal Segmentation through Out-of-Task and Out-of-Distribution
Generalization with a Bayesian Model [19.235173141731885]
アモーダル補完は人間が容易に実行できる視覚的タスクであるが、コンピュータビジョンアルゴリズムでは難しい。
我々は、アモーダルセグメンテーションをout-of-taskおよびout-of-distribution generalization問題として定式化する。
我々のアルゴリズムは、同じ監督方法を使用する代替手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-10-25T18:01:26Z) - Hidden Footprints: Learning Contextual Walkability from 3D Human Trails [70.01257397390361]
現在のデータセットは、人々がどこにいるか、どこにいるかを教えてくれません。
まず、画像間で人の観察を伝播させ、3D情報を利用して、私たちが「隠れ足跡」と呼ぶものを作成することで、有効なラベル付き歩行可能領域の集合を拡大する。
このようなスパースラベルのために設計されたトレーニング戦略を考案し、クラスバランスの分類損失と文脈逆転損失を組み合わせた。
論文 参考訳(メタデータ) (2020-08-19T23:19:08Z) - Future Urban Scenes Generation Through Vehicles Synthesis [90.1731992199415]
本研究では,都市景観の視覚的外観を予測するためのディープラーニングパイプラインを提案する。
ループには解釈可能な情報が含まれ、各アクターは独立してモデル化される。
従来のCityFlowのシーン生成手法に比べて,このアプローチが優れていることを示す。
論文 参考訳(メタデータ) (2020-07-01T08:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。