論文の概要: Traffic Scene Parsing through the TSP6K Dataset
- arxiv url: http://arxiv.org/abs/2303.02835v1
- Date: Mon, 6 Mar 2023 02:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:28:50.087765
- Title: Traffic Scene Parsing through the TSP6K Dataset
- Title(参考訳): TSP6Kデータセットによる交通シーン解析
- Authors: Peng-Tao Jiang, Yuqi Yang, Yang Cao, Qibin Hou, Ming-Ming Cheng,
Chunhua Shen
- Abstract要約: 6000の都市交通画像と数百のストリートシーンを含むTSP6Kデータセットを紹介した。
運転プラットフォームから収集されたこれまでのほとんどのトラフィックシーンデータセットとは対照的に、私たちのデータセットのイメージは、路上でハイハングする射撃プラットフォームからのものです。
本稿では,トラフィックシーンの異なるセマンティック領域の詳細を復元するディープ・リフィニング・デコーダを提案する。
- 参考スコア(独自算出の注目度): 143.66950318073182
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traffic scene parsing is one of the most important tasks to achieve
intelligent cities. So far, little effort has been spent on constructing
datasets specifically for the task of traffic scene parsing. To fill this gap,
here we introduce the TSP6K dataset, containing 6,000 urban traffic images and
spanning hundreds of street scenes under various weather conditions. In
contrast to most previous traffic scene datasets collected from a driving
platform, the images in our dataset are from the shooting platform high-hanging
on the street. Such traffic images can capture more crowded street scenes with
several times more traffic participants than the driving scenes. Each image in
the TSP6K dataset is provided with high-quality pixel-level and instance-level
annotations. We perform a detailed analysis for the dataset and comprehensively
evaluate the state-of-the-art scene parsing methods. Considering the vast
difference in instance sizes, we propose a detail refining decoder, which
recovers the details of different semantic regions in traffic scenes.
Experiments have shown its effectiveness in parsing high-hanging traffic
scenes. Code and dataset will be made publicly available.
- Abstract(参考訳): トラフィックシーン解析は、インテリジェントな都市を実現する上で最も重要なタスクの1つです。
これまでのところ、トラフィックシーン解析のタスクに特化したデータセットの構築にはほとんど労力がかからない。
このギャップを埋めるために,6,000の都市交通画像を含むTSP6Kデータセットを導入し,様々な気象条件下で数百のストリートシーンを横断する。
運転プラットフォームから収集された過去のトラフィックシーンデータセットとは対照的に、私たちのデータセットのイメージは、路上の撮影プラットフォームからのものです。
このような交通画像は、運転シーンよりも数倍のトラフィック参加者で、混雑した通りのシーンをキャプチャすることができる。
TSP6Kデータセットの各画像には、高品質のピクセルレベルとインスタンスレベルのアノテーションが提供されている。
データセットの詳細な解析を行い,最先端のシーン解析手法を総合的に評価する。
インスタンスサイズが大きく異なることを考慮し,トラフィックシーンにおける異なる意味領域の詳細を復元する詳細精細化デコーダを提案する。
実験は、その効果を、高速のトラフィックシーンの解析に示している。
コードとデータセットは公開される予定だ。
関連論文リスト
- RSUD20K: A Dataset for Road Scene Understanding In Autonomous Driving [6.372000468173298]
RSUD20Kは、バングラデシュの道路の運転から見た20K以上の高解像度画像からなる、道路シーン理解のための新しいデータセットである。
我々の作業は以前の取り組みを大幅に改善し、詳細なアノテーションを提供し、オブジェクトの複雑さを増大させます。
論文 参考訳(メタデータ) (2024-01-14T16:10:42Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - TrafficCAM: A Versatile Dataset for Traffic Flow Segmentation [9.744937939618161]
既存のトラフィックフローデータセットには2つの大きな制限がある。
クラス数は限られており、通常は1種類の車両に限られる。
我々は、TrafficCAMと呼ばれる新しいベンチマークトラフィックフロー画像データセットを導入する。
論文 参考訳(メタデータ) (2022-11-17T16:14:38Z) - SIMBAR: Single Image-Based Scene Relighting For Effective Data
Augmentation For Automated Driving Vision Tasks [2.974889834426778]
本稿では,単一のイメージを入力として動作可能な,新しい画像ベースのリライトパイプラインSIMBARを提案する。
我々の知る限りでは、1つの画像から明示的な幾何学的表現を活用するシーンライティングに関する先行研究はない。
自動走行視覚タスクにおいて、SIMBARをデータ拡張に活用する利点を更に検証し、効果的に定量化する。
論文 参考訳(メタデータ) (2022-04-01T18:11:43Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Repopulating Street Scenes [59.2621467759251]
そこで本稿では,歩行者や車両などの物体を配置・非人口化・再人口化することにより,街頭シーンの画像を自動的に再構成する枠組みを提案する。
この手法の応用例としては、画像の匿名化によるプライバシー向上、自律運転のような知覚タスクのためのデータ強化などがある。
論文 参考訳(メタデータ) (2021-03-30T09:04:46Z) - Sampling Based Scene-Space Video Processing [89.49726406622842]
ビデオ処理のための新しいサンプリングベースのフレームワークを提案する。
奥行きのミスやカメラのポーズ推定がある場合、高品質なシーン空間ビデオ効果を可能にする。
カジュアルにキャプチャーされた、手持ちの、動く、圧縮された、モノラルなビデオの結果を提示する。
論文 参考訳(メタデータ) (2021-02-05T05:55:04Z) - EDEN: Multimodal Synthetic Dataset of Enclosed GarDEN Scenes [21.695100437184507]
このデータセットには、100以上の園芸モデルから取得した300万以上の画像が含まれている。
各画像には、セマンティックセグメンテーション、深さ、表面正規化、固有色、光学フローなど、様々な低レベル/高レベルの視覚変調が注釈付けされている。
コンピュータビジョンにおける2つの重要な課題である, セマンティックセグメンテーションと単眼深度予測の最先端手法に関する実験結果から, 未構造化自然シーンのデータセットに対する事前学習深度ネットワークの効果が示唆された。
論文 参考訳(メタデータ) (2020-11-09T12:44:29Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。