論文の概要: Spatial-Temporal Map Vehicle Trajectory Detection Using Dynamic Mode
Decomposition and Res-UNet+ Neural Networks
- arxiv url: http://arxiv.org/abs/2201.04755v1
- Date: Thu, 13 Jan 2022 00:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-15 01:29:26.480561
- Title: Spatial-Temporal Map Vehicle Trajectory Detection Using Dynamic Mode
Decomposition and Res-UNet+ Neural Networks
- Title(参考訳): 動的モード分解とRes-UNet+ニューラルネットワークを用いた時空間地図車両軌道検出
- Authors: Tianya T. Zhang and Peter J. Jin
- Abstract要約: 本稿では,高角交通カメラから車両軌跡を抽出する,機械学習による縦走査法を提案する。
空間時間マップ(STMap)をスパースフォアグラウンドおよびローランク背景に分解することにより,車両ストランドの抽出に動的モード分解(DMD)法を適用した。
Res-UNet+という名前のディープニューラルネットワークは、2つの一般的なディープラーニングアーキテクチャを適用することでセマンティックセグメンテーションタスクのために設計された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a machine-learning-enhanced longitudinal scanline method
to extract vehicle trajectories from high-angle traffic cameras. The Dynamic
Mode Decomposition (DMD) method is applied to extract vehicle strands by
decomposing the Spatial-Temporal Map (STMap) into the sparse foreground and
low-rank background. A deep neural network named Res-UNet+ was designed for the
semantic segmentation task by adapting two prevalent deep learning
architectures. The Res-UNet+ neural networks significantly improve the
performance of the STMap-based vehicle detection, and the DMD model provides
many interesting insights for understanding the evolution of underlying
spatial-temporal structures preserved by STMap. The model outputs were compared
with the previous image processing model and mainstream semantic segmentation
deep neural networks. After a thorough evaluation, the model is proved to be
accurate and robust against many challenging factors. Last but not least, this
paper fundamentally addressed many quality issues found in NGSIM trajectory
data. The cleaned high-quality trajectory data are published to support future
theoretical and modeling research on traffic flow and microscopic vehicle
control. This method is a reliable solution for video-based trajectory
extraction and has wide applicability.
- Abstract(参考訳): 本稿では,高角交通カメラから車両軌跡を抽出する,機械学習による縦走査法を提案する。
空間時間マップ(STMap)をスパースフォアグラウンドおよびローランク背景に分解して車両ストランドを抽出するために動的モード分解(DMD)法を適用した。
Res-UNet+という名前のディープニューラルネットワークは、2つの一般的なディープラーニングアーキテクチャを適用することでセマンティックセグメンテーションタスクのために設計された。
Res-UNet+ニューラルネットワークは、STMapに基づく車両検出の性能を大幅に向上させ、DMDモデルは、STMapが保存する地下空間時間構造の進化を理解するための興味深い洞察を提供する。
モデルの出力は、従来の画像処理モデルとメインストリームのセマンティックセグメンテーション深層ニューラルネットワークと比較された。
徹底的な評価の後、モデルは多くの困難因子に対して正確で堅牢であることが証明された。
最後に、この論文はngsim軌道データに見られる多くの品質問題を取り上げている。
交通流と微視的車両制御に関する将来の理論的およびモデリング研究を支援するために, クリーニングされた高品質な軌道データを公開した。
本手法はビデオベーストラジェクトリ抽出のための信頼性の高い解であり,広い適用性を有する。
関連論文リスト
- A Multi-Graph Convolutional Neural Network Model for Short-Term Prediction of Turning Movements at Signalized Intersections [0.6215404942415159]
本研究では,交差点での移動予測を回転させる多グラフ畳み込みニューラルネットワーク(MGCNN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案アーキテクチャは,トラフィックデータの時間変動をモデル化する多グラフ構造と,グラフ上のトラフィックデータの空間変動をモデル化するためのスペクトル畳み込み演算を組み合わせた。
モデルが1, 2, 3, 4, 5分後に短期予測を行う能力は,4つのベースライン・オブ・ザ・アーティファクトモデルに対して評価された。
論文 参考訳(メタデータ) (2024-06-02T05:41:25Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Traffic Pattern Classification in Smart Cities Using Deep Recurrent
Neural Network [0.519400993594577]
本稿では,ディープリカレントニューラルネットワークに基づく交通パターン分類手法を提案する。
提案モデルでは、畳み込み層と繰り返し層を組み合わせて、トラフィックパターンデータから特徴を抽出する。
その結果,提案モデルは,95%の精度でスマートシティの交通パターンを正確に分類できることがわかった。
論文 参考訳(メタデータ) (2024-01-24T20:24:32Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Smart Traffic Management of Vehicles using Faster R-CNN based Deep
Learning Method [0.0]
本研究では,より高速なR-CNNに基づく深層学習手法を車両のセグメンテーションに向けて検討する。
計算フレームワークは適応的背景モデリングのアイデアを使用する。
実験結果は,この計算フレームワークの優位性を示している。
論文 参考訳(メタデータ) (2023-11-03T05:30:13Z) - Automatic Extraction of Road Networks from Satellite Images by using
Adaptive Structural Deep Belief Network [0.0]
本研究では,ロードトラッカーと呼ばれる道路網の自動認識手法に適用する。
RoadTracerは航空写真データから地上の道路地図を生成することができる。
精度と計算時間を改善するため,我々のAdaptive DBNはCNNの代わりにRoadTracer上に実装された。
論文 参考訳(メタデータ) (2021-10-25T07:06:10Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Spatio-Temporal Look-Ahead Trajectory Prediction using Memory Neural
Network [6.065344547161387]
本論文では,記憶神経ネットワークと呼ばれる新しい繰り返しニューラルネットワークを用いて,時空間的視線軌道予測の問題を解くことを試みる。
提案手法は計算量が少なく,LSTMやGRUを用いた他のディープラーニングモデルと比較すると,単純なアーキテクチャである。
論文 参考訳(メタデータ) (2021-02-24T05:02:19Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。