論文の概要: inTformer: A Time-Embedded Attention-Based Transformer for Crash
Likelihood Prediction at Intersections Using Connected Vehicle Data
- arxiv url: http://arxiv.org/abs/2307.03854v4
- Date: Tue, 29 Aug 2023 15:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 17:47:10.831769
- Title: inTformer: A Time-Embedded Attention-Based Transformer for Crash
Likelihood Prediction at Intersections Using Connected Vehicle Data
- Title(参考訳): intformer:コネクテッドカーデータを用いた交差点衝突確率予測のための時間埋め込み注意型変圧器
- Authors: B M Tazbiul Hassan Anik, Zubayer Islam, Mohamed Abdel-Aty
- Abstract要約: InTersection-Transformer(inTformer)を提案する。これは、リアルタイムに交差点衝突確率を効果的に予測できる時間組込みアテンションベースのトランスフォーマーモデルである。
提案手法は,Signal Analytics Platformから抽出したコネクテッドカーデータを用いて評価した。
InTformerの最適モデルである"within-intersection"と"approach"ゾーンは、それぞれ73%、70%の感度を実現した。
- 参考スコア(独自算出の注目度): 1.03590082373586
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The real-time crash likelihood prediction model is an essential component of
the proactive traffic safety management system. Over the years, numerous
studies have attempted to construct a crash likelihood prediction model in
order to enhance traffic safety, but mostly on freeways. In the majority of the
existing studies, researchers have primarily employed a deep learning-based
framework to identify crash potential. Lately, Transformer has emerged as a
potential deep neural network that fundamentally operates through
attention-based mechanisms. Transformer has several functional benefits over
extant deep learning models such as LSTM, CNN, etc. Firstly, Transformer can
readily handle long-term dependencies in a data sequence. Secondly,
Transformers can parallelly process all elements in a data sequence during
training. Finally, a Transformer does not have the vanishing gradient issue.
Realizing the immense possibility of Transformers, this paper proposes
inTersection-Transformer (inTformer), a time-embedded attention-based
Transformer model that can effectively predict intersection crash likelihood in
real-time. The proposed model was evaluated using connected vehicle data
extracted from Signal Analytics Platform. Acknowledging the complex traffic
operation mechanism at intersection, this study developed zone-specific models
by dividing the intersection region into two distinct zones:
within-intersection and approach zone. The best inTformer models in
'within-intersection,' and 'approach' zone achieved a sensitivity of 73%, and
70%, respectively. The zone-level models were also compared to earlier studies
on crash likelihood prediction at intersections and with several established
deep learning models trained on the same connected vehicle dataset.
- Abstract(参考訳): リアルタイム衝突確率予測モデルは、積極的な交通安全管理システムの重要な構成要素である。
長年にわたり、交通の安全性を高めるために衝突可能性予測モデルを構築しようと試みてきたが、ほとんどが高速道路である。
既存の研究の大半で、研究者は主にクラッシュの可能性を特定するためにディープラーニングベースのフレームワークを使用してきた。
最近のtransformerは、注意に基づくメカニズムを基本とするディープニューラルネットワークの可能性として浮上している。
Transformerは、LSTMやCNNといった既存のディープラーニングモデルに対して、いくつかの機能的なメリットがある。
まず、Transformerはデータシーケンスの長期依存関係を簡単に処理できる。
第二に、トランスフォーマーはトレーニング中にデータシーケンス内のすべての要素を並列に処理できる。
最後に、Transformerには消滅する勾配の問題がない。
InTersection-Transformer(inTformer)モデルを提案する。これは,リアルタイムに交差点衝突確率を効果的に予測できる,時間組込みアテンションベースのTransformerモデルである。
提案モデルは,信号解析プラットフォームから抽出した車両データを用いて評価した。
本研究は交差点における複雑な交通操作機構を認識し、交差点領域を2つの異なるゾーンに分割することにより、ゾーン固有のモデルを開発した。
InTformerの最適モデルである"within-intersection"と"approach"ゾーンは、それぞれ73%、70%の感度を達成した。
ゾーンレベルのモデルは、交差点での衝突確率予測に関する以前の研究や、同じ接続された車両データセットでトレーニングされたいくつかの確立されたディープラーニングモデルと比較された。
関連論文リスト
- Hybrid Transformer and Spatial-Temporal Self-Supervised Learning for
Long-term Traffic Prediction [1.8531577178922987]
本稿では,ハイブリッドトランスフォーマーと自己教師型学習を組み合わせたモデルを提案する。
このモデルは、トラフィックのシーケンスレベルにデータ拡張技術を適用することにより、適応的なデータ拡張を強化する。
本研究では,時間的および空間的依存をモデル化する2つの自己教師型学習タスクを設計し,モデルの精度と能力を向上させる。
論文 参考訳(メタデータ) (2024-01-29T06:17:23Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Driver Maneuver Detection and Analysis using Time Series Segmentation
and Classification [7.413735713939367]
本稿では,自然主義運転環境下での車両遠隔計測データから車両の操作を自動的に検出する手法を実装した。
本研究の目的は、自然主義駆動学習ビデオのフレーム・バイ・フレームアノテーションのためのエンドツーエンドパイプラインを開発することである。
論文 参考訳(メタデータ) (2022-11-10T03:38:50Z) - S2TNet: Spatio-Temporal Transformer Networks for Trajectory Prediction
in Autonomous Driving [7.862992905548721]
本稿では,S時間変換器による時空間相互作用をモデル化し,時空間変換器によるテンポレルシーケンスを扱うS2TNetを提案する。
この手法は、ApolloScape Trajectoryデータセットにおける最先端の手法を平均と最終変位誤差の重み付け和で7%以上上回る。
論文 参考訳(メタデータ) (2022-06-22T08:12:31Z) - PreTR: Spatio-Temporal Non-Autoregressive Trajectory Prediction
Transformer [0.9786690381850356]
PRediction Transformer (PReTR) と呼ばれるモデルを導入し、時間分解型アテンションモジュールを用いてマルチエージェントシーンから特徴を抽出する。
これは、経験的により良い結果を持つ以前の研究されたモデルよりも計算上の必要性が低いことを示している。
我々は,学習対象クエリの集合を並列デコードするために,エンコーダ・デコーダ・トランスフォーマネットワークを利用する。
論文 参考訳(メタデータ) (2022-03-17T12:52:23Z) - Pedestrian Trajectory Prediction via Spatial Interaction Transformer
Network [7.150832716115448]
交通現場では、来るべき人々と出会うと、歩行者は突然回転したり、すぐに止まることがある。
このような予測不可能な軌道を予測するために、歩行者間の相互作用についての洞察を得ることができる。
本稿では,歩行者軌跡の相関関係を注意機構を用いて学習する空間的相互作用変換器(SIT)を提案する。
論文 参考訳(メタデータ) (2021-12-13T13:08:04Z) - Deep Transformer Networks for Time Series Classification: The NPP Safety
Case [59.20947681019466]
時間依存nppシミュレーションデータをモデル化するために、教師付き学習方法でトランスフォーマと呼ばれる高度なテンポラルニューラルネットワークを使用する。
トランスはシーケンシャルデータの特性を学習し、テストデータセット上で約99%の分類精度で有望な性能が得られる。
論文 参考訳(メタデータ) (2021-04-09T14:26:25Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Multi-intersection Traffic Optimisation: A Benchmark Dataset and a
Strong Baseline [85.9210953301628]
交通信号の制御は、都市部の交通渋滞の緩和に必要不可欠である。
問題モデリングの複雑さが高いため、現在の作業の実験的な設定はしばしば矛盾する。
エンコーダ・デコーダ構造を用いた深層強化学習に基づく新規で強力なベースラインモデルを提案する。
論文 参考訳(メタデータ) (2021-01-24T03:55:39Z) - End-to-end Contextual Perception and Prediction with Interaction
Transformer [79.14001602890417]
我々は3次元物体の検出と将来の動きを自動運転の文脈で予測する問題に取り組む。
空間的・時間的依存関係を捉えるために,新しいトランスフォーマーアーキテクチャを用いたリカレントニューラルネットワークを提案する。
私たちのモデルはエンドツーエンドでトレーニングでき、リアルタイムで実行されます。
論文 参考訳(メタデータ) (2020-08-13T14:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。