論文の概要: Traffic Scene Parsing through the TSP6K Dataset
- arxiv url: http://arxiv.org/abs/2303.02835v1
- Date: Mon, 6 Mar 2023 02:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:28:50.087765
- Title: Traffic Scene Parsing through the TSP6K Dataset
- Title(参考訳): TSP6Kデータセットによる交通シーン解析
- Authors: Peng-Tao Jiang, Yuqi Yang, Yang Cao, Qibin Hou, Ming-Ming Cheng,
Chunhua Shen
- Abstract要約: 6000の都市交通画像と数百のストリートシーンを含むTSP6Kデータセットを紹介した。
運転プラットフォームから収集されたこれまでのほとんどのトラフィックシーンデータセットとは対照的に、私たちのデータセットのイメージは、路上でハイハングする射撃プラットフォームからのものです。
本稿では,トラフィックシーンの異なるセマンティック領域の詳細を復元するディープ・リフィニング・デコーダを提案する。
- 参考スコア(独自算出の注目度): 143.66950318073182
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traffic scene parsing is one of the most important tasks to achieve
intelligent cities. So far, little effort has been spent on constructing
datasets specifically for the task of traffic scene parsing. To fill this gap,
here we introduce the TSP6K dataset, containing 6,000 urban traffic images and
spanning hundreds of street scenes under various weather conditions. In
contrast to most previous traffic scene datasets collected from a driving
platform, the images in our dataset are from the shooting platform high-hanging
on the street. Such traffic images can capture more crowded street scenes with
several times more traffic participants than the driving scenes. Each image in
the TSP6K dataset is provided with high-quality pixel-level and instance-level
annotations. We perform a detailed analysis for the dataset and comprehensively
evaluate the state-of-the-art scene parsing methods. Considering the vast
difference in instance sizes, we propose a detail refining decoder, which
recovers the details of different semantic regions in traffic scenes.
Experiments have shown its effectiveness in parsing high-hanging traffic
scenes. Code and dataset will be made publicly available.
- Abstract(参考訳): トラフィックシーン解析は、インテリジェントな都市を実現する上で最も重要なタスクの1つです。
これまでのところ、トラフィックシーン解析のタスクに特化したデータセットの構築にはほとんど労力がかからない。
このギャップを埋めるために,6,000の都市交通画像を含むTSP6Kデータセットを導入し,様々な気象条件下で数百のストリートシーンを横断する。
運転プラットフォームから収集された過去のトラフィックシーンデータセットとは対照的に、私たちのデータセットのイメージは、路上の撮影プラットフォームからのものです。
このような交通画像は、運転シーンよりも数倍のトラフィック参加者で、混雑した通りのシーンをキャプチャすることができる。
TSP6Kデータセットの各画像には、高品質のピクセルレベルとインスタンスレベルのアノテーションが提供されている。
データセットの詳細な解析を行い,最先端のシーン解析手法を総合的に評価する。
インスタンスサイズが大きく異なることを考慮し,トラフィックシーンにおける異なる意味領域の詳細を復元する詳細精細化デコーダを提案する。
実験は、その効果を、高速のトラフィックシーンの解析に示している。
コードとデータセットは公開される予定だ。
関連論文リスト
- eTraM: Event-based Traffic Monitoring Dataset [23.978331129798356]
我々は、イベントベースのトラフィック監視データセットであるeTraMを紹介した。
eTraMは、様々な照明と気象条件の異なる交通シナリオから10時間のデータを提供する。
車両から歩行者、マイクロモビリティまで、交通参加者の8つの異なるクラスをカバーしている。
論文 参考訳(メタデータ) (2024-03-29T04:58:56Z) - Traffic Reconstruction and Analysis of Natural Driving Behaviors at
Unsignalized Intersections [1.7273380623090846]
この研究は、TNのメンフィスにある様々な無署名の交差点で、その日の異なる時間に交通を記録していた。
ビデオデータを手動でラベル付けして特定の変数をキャプチャした後,SUMOシミュレーション環境におけるトラフィックシナリオを再構築した。
これらのシミュレーションから得られた出力データは、車両移動の時間空間図、走行時間頻度分布、ボトルネック点を特定するための速度配置プロットなど、包括的な分析を提供する。
論文 参考訳(メタデータ) (2023-12-22T09:38:06Z) - TrafficMOT: A Challenging Dataset for Multi-Object Tracking in Complex
Traffic Scenarios [23.831048188389026]
トラヒックビデオにおける多目的追跡は、交通監視の精度を高め、道路安全対策を促進する大きな可能性を秘めている。
トラヒックビデオにおけるマルチオブジェクトトラッキングのための既存のデータセットは、制限されたインスタンスや単一のクラスにフォーカスすることが多い。
複雑なシナリオを持つ多様なトラフィック状況をカバーするために設計された、広範なデータセットであるTrafficMOTを紹介する。
論文 参考訳(メタデータ) (2023-11-30T18:59:56Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - TrafficCAM: A Versatile Dataset for Traffic Flow Segmentation [9.744937939618161]
既存のトラフィックフローデータセットには2つの大きな制限がある。
クラス数は限られており、通常は1種類の車両に限られる。
我々は、TrafficCAMと呼ばれる新しいベンチマークトラフィックフロー画像データセットを導入する。
論文 参考訳(メタデータ) (2022-11-17T16:14:38Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Vision-Language Navigation with Random Environmental Mixup [112.94609558723518]
視覚言語ナビゲーション(VLN)タスクは、視覚的な観察を認識し、自然言語の命令を解釈しながら、エージェントがステップバイステップでナビゲートする必要がある。
従来の研究では、データのバイアスを減らすために様々なデータ拡張手法が提案されている。
本研究では,混成環境を介し,相互接続された住宅シーンを付加データとして生成するランダム環境混成(REM)手法を提案する。
論文 参考訳(メタデータ) (2021-06-15T04:34:26Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Towards Accurate Vehicle Behaviour Classification With Multi-Relational
Graph Convolutional Networks [22.022759283770377]
モノクロ画像やビデオから車両の挙動を理解するパイプラインを提案する。
このような符号化の時間シーケンスをリカレントネットワークに供給し、車両の挙動をラベル付けする。
提案するフレームワークは,多様なデータセットに対して,さまざまな車両動作を高い忠実度に分類することができる。
論文 参考訳(メタデータ) (2020-02-03T14:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。