論文の概要: TrafficCAM: A Versatile Dataset for Traffic Flow Segmentation
- arxiv url: http://arxiv.org/abs/2211.09620v1
- Date: Thu, 17 Nov 2022 16:14:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 16:27:40.706088
- Title: TrafficCAM: A Versatile Dataset for Traffic Flow Segmentation
- Title(参考訳): TrafficCAM: トラフィックフローセグメンテーションのためのVersatileデータセット
- Authors: Zhongying Deng, Yanqi Chen, Lihao Liu, Shujun Wang, Rihuan Ke,
Carola-Bibiane Schonlieb, Angelica I Aviles-Rivero
- Abstract要約: 既存のトラフィックフローデータセットには2つの大きな制限がある。
クラス数は限られており、通常は1種類の車両に限られる。
我々は、TrafficCAMと呼ばれる新しいベンチマークトラフィックフロー画像データセットを導入する。
- 参考スコア(独自算出の注目度): 9.744937939618161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic flow analysis is revolutionising traffic management. Qualifying
traffic flow data, traffic control bureaus could provide drivers with real-time
alerts, advising the fastest routes and therefore optimising transportation
logistics and reducing congestion. The existing traffic flow datasets have two
major limitations. They feature a limited number of classes, usually limited to
one type of vehicle, and the scarcity of unlabelled data. In this paper, we
introduce a new benchmark traffic flow image dataset called TrafficCAM. Our
dataset distinguishes itself by two major highlights. Firstly, TrafficCAM
provides both pixel-level and instance-level semantic labelling along with a
large range of types of vehicles and pedestrians. It is composed of a large and
diverse set of video sequences recorded in streets from eight Indian cities
with stationary cameras. Secondly, TrafficCAM aims to establish a new benchmark
for developing fully-supervised tasks, and importantly, semi-supervised
learning techniques. It is the first dataset that provides a vast amount of
unlabelled data, helping to better capture traffic flow qualification under a
low cost annotation requirement. More precisely, our dataset has 4,402 image
frames with semantic and instance annotations along with 59,944 unlabelled
image frames. We validate our new dataset through a large and comprehensive
range of experiments on several state-of-the-art approaches under four
different settings: fully-supervised semantic and instance segmentation, and
semi-supervised semantic and instance segmentation tasks. Our benchmark dataset
will be released.
- Abstract(参考訳): 交通フロー分析は交通管理に革命をもたらしている。
交通流のデータに基づいて、交通管制局はドライバーにリアルタイムの警告を与え、最速のルートを助言し、輸送の物流を最適化し、渋滞を減らすことができる。
既存のトラフィックフローデータセットには2つの大きな制限がある。
クラス数は限られており、通常は1種類の車両に制限されており、ラベルなしのデータも少ない。
本稿では,trafficcamと呼ばれる新しいベンチマークトラヒックフロー画像データセットを提案する。
我々のデータセットは2つの主要なハイライトによって区別される。
まずtrafficcamは、ピクセルレベルとインスタンスレベルのセマンティクスのラベル付けと、さまざまなタイプの車両と歩行者を提供する。
インドの8つの都市で静止カメラで撮影された、大規模で多様なビデオシーケンスで構成されている。
第2に、TrafficCAMは、完全に教師付きタスク、そして重要な半教師付き学習技術を開発するための新しいベンチマークを確立することを目指している。
これは、大量の非競合データを提供する最初のデータセットであり、低コストのアノテーション要件の下で、トラフィックフローの資格をよりよく取得するのに役立つ。
より正確には、データセットには4,402のイメージフレームがあり、セマンティクスとインスタンスアノテーションと59,944のラベルなしイメージフレームがあります。
我々は、新しいデータセットを、4つの異なる設定でいくつかの最先端のアプローチで大規模かつ包括的な実験を通して検証する: 完全に教師ありセマンティックとインスタンスセグメンテーション、半教師ありセマンティックとインスタンスセグメンテーションタスク。
ベンチマークデータセットはリリースされます。
関連論文リスト
- BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - Lens: A Foundation Model for Network Traffic in Cybersecurity [19.71042183770703]
Lensは、T5アーキテクチャを活用して、大規模な未ラベルデータから事前訓練された表現を学習するネットワークトラフィックの基礎モデルである。
Masked Span Prediction(MSP)、Packet Order Prediction(POP)、Homologous Traffic Prediction(HTP)の3つの異なるタスクを組み合わせた新しい損失を設計する。
論文 参考訳(メタデータ) (2024-02-06T02:45:13Z) - FDTI: Fine-grained Deep Traffic Inference with Roadnet-enriched Graph [10.675666104503119]
本稿では,詳細な深部交通推論をedIと呼ぶ。
道路間の関係をモデル化するために,交通信号に基づくきめ細かい交通グラフを構築した。
私たちは、都市レベルのきめ細かい交通予測を最初に実施しました。
論文 参考訳(メタデータ) (2023-06-19T14:03:42Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Traffic Scene Parsing through the TSP6K Dataset [143.66950318073182]
6000の都市交通画像と数百のストリートシーンを含むTSP6Kデータセットを紹介した。
運転プラットフォームから収集されたこれまでのほとんどのトラフィックシーンデータセットとは対照的に、私たちのデータセットのイメージは、路上でハイハングする射撃プラットフォームからのものです。
本稿では,トラフィックシーンの異なるセマンティック領域の詳細を復元するディープ・リフィニング・デコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Multi-task Learning for Sparse Traffic Forecasting [13.359590890052454]
本稿では,各道路セグメントの混雑クラスと速度を同時に予測できるマルチタスク学習ネットワークを提案する。
提案手法はTraffic4cast Competition 2022で提供されたデータセットにおいて,ソースコードをhttps://github.com/OctopusLi/NeurIPS2022-traffic4castで公開しています。
論文 参考訳(メタデータ) (2022-11-18T02:10:40Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - An Experimental Urban Case Study with Various Data Sources and a Model
for Traffic Estimation [65.28133251370055]
我々はスイスのチューリッヒの都市ネットワーク内の地域でビデオ計測による実験キャンペーンを組織した。
我々は,既存のサーマルカメラからの測定を確実にすることで,交通の流れや走行時間の観点からの交通状況の把握に注力する。
本稿では,様々なデータソースの融合による移動時間を推定するために,単純かつ効率的な多重線形回帰(MLR)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T08:13:57Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - A Large Scale Event-based Detection Dataset for Automotive [8.230195220924234]
このデータセットは、39時間以上の自動車記録と304x240 ATISセンサーで構成されている。
開放された道路と非常に多様な運転シナリオがあり、都市、高速道路、郊外、田舎のシーンから、天気や照明条件まで様々である。
このサイズのラベル付きデータセットが利用できることは、オブジェクトの検出や分類といったイベントベースの視覚タスクの大きな進歩に寄与すると考えています。
論文 参考訳(メタデータ) (2020-01-23T13:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。