論文の概要: A POV-based Highway Vehicle Trajectory Dataset and Prediction
Architecture
- arxiv url: http://arxiv.org/abs/2303.06202v1
- Date: Fri, 10 Mar 2023 20:38:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 20:22:23.432433
- Title: A POV-based Highway Vehicle Trajectory Dataset and Prediction
Architecture
- Title(参考訳): POVに基づく自動車軌道データと予測アーキテクチャ
- Authors: Vinit Katariya, Ghazal Alinezhad Noghre, Armin Danesh Pazho, Hamed
Tabkhi
- Abstract要約: 本稿では,車載トラジェクトリ,検出,追跡データセットであるEmphCarolinas Highway dataset (CHDfootnoteemphCHD)を紹介する。
また、注目に基づくグラフ同型と畳み込みニューラルネットワークを用いた新しい車両軌道予測アーキテクチャであるemphPishguVeを提案する。
その結果、emphPishguVeは既存のアルゴリズムより優れており、鳥の目、目、高角POVにおける新しい最先端(SotA)となることが示された。
- 参考スコア(独自算出の注目度): 2.924868086534434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle Trajectory datasets that provide multiple point-of-views (POVs) can
be valuable for various traffic safety and management applications. Despite the
abundance of trajectory datasets, few offer a comprehensive and diverse range
of driving scenes, capturing multiple viewpoints of various highway layouts,
merging lanes, and configurations. This limits their ability to capture the
nuanced interactions between drivers, vehicles, and the roadway infrastructure.
We introduce the \emph{Carolinas Highway Dataset (CHD\footnote{\emph{CHD}
available at: \url{https://github.com/TeCSAR-UNCC/Carolinas\_Dataset}})}, a
vehicle trajectory, detection, and tracking dataset. \emph{CHD} is a collection
of 1.6 million frames captured in highway-based videos from eye-level and
high-angle POVs at eight locations across Carolinas with 338,000 vehicle
trajectories. The locations, timing of recordings, and camera angles were
carefully selected to capture various road geometries, traffic patterns,
lighting conditions, and driving behaviors.
We also present \emph{PishguVe}\footnote{\emph{PishguVe} code available at:
\url{https://github.com/TeCSAR-UNCC/PishguVe}}, a novel vehicle trajectory
prediction architecture that uses attention-based graph isomorphism and
convolutional neural networks. The results demonstrate that \emph{PishguVe}
outperforms existing algorithms to become the new state-of-the-art (SotA) in
bird's-eye, eye-level, and high-angle POV trajectory datasets. Specifically, it
achieves a 12.50\% and 10.20\% improvement in ADE and FDE, respectively, over
the current SotA on NGSIM dataset. Compared to best-performing models on CHD,
\emph{PishguVe} achieves lower ADE and FDE on eye-level data by 14.58\% and
27.38\%, respectively, and improves ADE and FDE on high-angle data by 8.3\% and
6.9\%, respectively.
- Abstract(参考訳): 複数の視点(POV)を提供する車両軌道データセットは、様々な交通安全および管理アプリケーションに有用である。
軌跡データセットが豊富にあるにも拘わらず、包括的で多様な運転シーンを提供し、様々なハイウェイレイアウト、車線の統合、構成の複数の視点を捉えているものはほとんどない。
これにより、ドライバー、車両、道路インフラ間のニュアンス的な相互作用を捉える能力が制限される。
車両軌道、検出、追跡データセットである \url{https://github.com/TeCSAR-UNCC/Carolinas\_Dataset}} で利用可能な \emph{Carolinas Highway Dataset (CHD\footnote{\emph{CHD} )を紹介した。
\emph{CHD}は、ハイウェイで撮影された1.6万フレームのコレクションで、視線レベルと高角のPOVから撮影されている。
道路のジオメトリや交通パターン、照明条件、運転行動などを把握するため、位置、記録のタイミング、カメラアングルを慎重に選択した。
注意に基づくグラフ同型および畳み込みニューラルネットワークを用いた新しい車両軌道予測アーキテクチャである \url{https://github.com/TeCSAR-UNCC/PishguVe}} で利用可能である。
以上の結果から,'emph{PishguVe} は既存のアルゴリズムを上回り,鳥眼,視線,高角POV軌道データセットにおける新しい最先端(SotA)となることが示された。
具体的には、現在の NGSIM データセットの SotA に対して、ADE と FDE の 12.50 % と 10.20 % の改善をそれぞれ達成している。
CHDの最高性能モデルと比較して、 \emph{PishguVe} は視線レベルのデータの ADE と FDE をそれぞれ 14.58\% と 27.38\% で、高角データの ADE と FDE を 8.3\% と 6.9\% で改善する。
関連論文リスト
- ROAD-Waymo: Action Awareness at Scale for Autonomous Driving [17.531603453254434]
ROAD-Waymoは、道路シーンにおけるエージェント、アクション、位置、イベント検出の技術の開発とベンチマークのための広範なデータセットである。
既存のデータセット(および複数の都市を含む)よりもかなり大きく、より困難なものには、198kの注釈付きビデオフレーム、54kのエージェントチューブ、3.9Mのバウンディングボックス、合計12.4Mのラベルがある。
論文 参考訳(メタデータ) (2024-11-03T20:46:50Z) - LMT-Net: Lane Model Transformer Network for Automated HD Mapping from Sparse Vehicle Observations [11.395749549636868]
Lane Model Transformer Network (LMT-Net) は、エンコーダとデコーダのニューラルネットワークアーキテクチャであり、ポリリン符号化を実行し、レーンペアとその接続性を予測する。
我々は、複数の車両観測と、地上真実(GT)としての人間のアノテーションからなる内部データセット上でのLMT-Netの性能を評価する。
論文 参考訳(メタデータ) (2024-09-19T02:14:35Z) - TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Spatial-Temporal Deep Embedding for Vehicle Trajectory Reconstruction
from High-Angle Video [1.8520147498637294]
車両セグメンテーションのためのインスタンス認識埋め込みをSTMap上に生成するために,画素レベルとインスタンスレベルの両方でパリティ制約を課すモデルを開発した。
デザインされたモデルは、すべてのNGSIM US-101ビデオを処理して完全な車両軌道を生成するために適用される。
論文 参考訳(メタデータ) (2022-09-17T22:32:05Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Partitioned Graph Convolution Using Adversarial and Regression Networks
for Road Travel Speed Prediction [0.0]
データレスエッジの道路セグメント走行速度ヒストグラムを予測するためのフレームワークを提案する。
このフレームワークは、71.5%の交差と78.5%の移動速度ヒストグラムの予測における相関の精度を実現する。
実験によると、データセットをクラスタに分割すると、フレームワークのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-02-26T22:16:48Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。