論文の概要: Traffic Scene Parsing through the TSP6K Dataset
- arxiv url: http://arxiv.org/abs/2303.02835v2
- Date: Sat, 30 Mar 2024 01:21:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 16:13:48.287070
- Title: Traffic Scene Parsing through the TSP6K Dataset
- Title(参考訳): TSP6Kデータセットによる交通シーン解析
- Authors: Peng-Tao Jiang, Yuqi Yang, Yang Cao, Qibin Hou, Ming-Ming Cheng, Chunhua Shen,
- Abstract要約: 高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
- 参考スコア(独自算出の注目度): 109.69836680564616
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traffic scene perception in computer vision is a critically important task to achieve intelligent cities. To date, most existing datasets focus on autonomous driving scenes. We observe that the models trained on those driving datasets often yield unsatisfactory results on traffic monitoring scenes. However, little effort has been put into improving the traffic monitoring scene understanding, mainly due to the lack of specific datasets. To fill this gap, we introduce a specialized traffic monitoring dataset, termed TSP6K, containing images from the traffic monitoring scenario, with high-quality pixel-level and instance-level annotations. The TSP6K dataset captures more crowded traffic scenes with several times more traffic participants than the existing driving scenes. We perform a detailed analysis of the dataset and comprehensively evaluate previous popular scene parsing methods, instance segmentation methods and unsupervised domain adaption methods. Furthermore, considering the vast difference in instance sizes, we propose a detail refining decoder for scene parsing, which recovers the details of different semantic regions in traffic scenes owing to the proposed TSP6K dataset. Experiments show its effectiveness in parsing the traffic monitoring scenes. Code and dataset are available at https://github.com/PengtaoJiang/TSP6K.
- Abstract(参考訳): コンピュータビジョンにおける交通シーンの認識は、インテリジェントな都市を実現するための重要な課題である。
現在までに、ほとんどのデータセットは自動運転シーンに焦点を当てている。
運転データセットでトレーニングされたモデルが、交通監視のシーンで不満足な結果をもたらすことがよくあります。
しかしながら、トラフィック監視シーンの理解を改善する努力はほとんど行われていない。
このギャップを埋めるために、トラフィック監視シナリオの画像を含む、TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入し、高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを提供する。
TSP6Kデータセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
本研究では,データセットの詳細な解析を行い,従来のシーン解析手法,インスタンスセグメンテーション手法,教師なしドメイン適応手法を網羅的に評価する。
さらに,インスタンスサイズが大きく異なることを考慮すると,提案したTSP6Kデータセットにより,トラフィックシーンの異なるセマンティック領域の詳細を復元するシーン解析用詳細精細デコーダを提案する。
実験は、交通監視シーンを解析する効果を示す。
コードとデータセットはhttps://github.com/PengtaoJiang/TSP6Kで公開されている。
関連論文リスト
- eTraM: Event-based Traffic Monitoring Dataset [23.978331129798356]
我々は、イベントベースのトラフィック監視データセットであるeTraMを紹介した。
eTraMは、様々な照明と気象条件の異なる交通シナリオから10時間のデータを提供する。
車両から歩行者、マイクロモビリティまで、交通参加者の8つの異なるクラスをカバーしている。
論文 参考訳(メタデータ) (2024-03-29T04:58:56Z) - Traffic Reconstruction and Analysis of Natural Driving Behaviors at
Unsignalized Intersections [1.7273380623090846]
この研究は、TNのメンフィスにある様々な無署名の交差点で、その日の異なる時間に交通を記録していた。
ビデオデータを手動でラベル付けして特定の変数をキャプチャした後,SUMOシミュレーション環境におけるトラフィックシナリオを再構築した。
これらのシミュレーションから得られた出力データは、車両移動の時間空間図、走行時間頻度分布、ボトルネック点を特定するための速度配置プロットなど、包括的な分析を提供する。
論文 参考訳(メタデータ) (2023-12-22T09:38:06Z) - TrafficMOT: A Challenging Dataset for Multi-Object Tracking in Complex
Traffic Scenarios [23.831048188389026]
トラヒックビデオにおける多目的追跡は、交通監視の精度を高め、道路安全対策を促進する大きな可能性を秘めている。
トラヒックビデオにおけるマルチオブジェクトトラッキングのための既存のデータセットは、制限されたインスタンスや単一のクラスにフォーカスすることが多い。
複雑なシナリオを持つ多様なトラフィック状況をカバーするために設計された、広範なデータセットであるTrafficMOTを紹介する。
論文 参考訳(メタデータ) (2023-11-30T18:59:56Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - TrafficCAM: A Versatile Dataset for Traffic Flow Segmentation [9.744937939618161]
既存のトラフィックフローデータセットには2つの大きな制限がある。
クラス数は限られており、通常は1種類の車両に限られる。
我々は、TrafficCAMと呼ばれる新しいベンチマークトラフィックフロー画像データセットを導入する。
論文 参考訳(メタデータ) (2022-11-17T16:14:38Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Vision-Language Navigation with Random Environmental Mixup [112.94609558723518]
視覚言語ナビゲーション(VLN)タスクは、視覚的な観察を認識し、自然言語の命令を解釈しながら、エージェントがステップバイステップでナビゲートする必要がある。
従来の研究では、データのバイアスを減らすために様々なデータ拡張手法が提案されている。
本研究では,混成環境を介し,相互接続された住宅シーンを付加データとして生成するランダム環境混成(REM)手法を提案する。
論文 参考訳(メタデータ) (2021-06-15T04:34:26Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Towards Accurate Vehicle Behaviour Classification With Multi-Relational
Graph Convolutional Networks [22.022759283770377]
モノクロ画像やビデオから車両の挙動を理解するパイプラインを提案する。
このような符号化の時間シーケンスをリカレントネットワークに供給し、車両の挙動をラベル付けする。
提案するフレームワークは,多様なデータセットに対して,さまざまな車両動作を高い忠実度に分類することができる。
論文 参考訳(メタデータ) (2020-02-03T14:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。