論文の概要: Exploring Transformer-Augmented LSTM for Temporal and Spatial Feature Learning in Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2412.13419v1
- Date: Wed, 18 Dec 2024 01:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:48:29.899822
- Title: Exploring Transformer-Augmented LSTM for Temporal and Spatial Feature Learning in Trajectory Prediction
- Title(参考訳): 軌道予測における時間的・空間的特徴学習のためのトランスフォーマー拡張LSTMの探索
- Authors: Chandra Raskoti, Weizi Li,
- Abstract要約: 本研究では,TransformerベースのモデルとLong Short-Term Memory (LSTM)ベースの技術の統合について検討する。
提案手法は, STA-LSTM, SA-LSTM, CS-LSTM, NaiveLSTM など, 従来の LSTM ベースの手法に対してベンチマークを行う。
- 参考スコア(独自算出の注目度): 1.7273380623090846
- License:
- Abstract: Accurate vehicle trajectory prediction is crucial for ensuring safe and efficient autonomous driving. This work explores the integration of Transformer based model with Long Short-Term Memory (LSTM) based technique to enhance spatial and temporal feature learning in vehicle trajectory prediction. Here, a hybrid model that combines LSTMs for temporal encoding with a Transformer encoder for capturing complex interactions between vehicles is proposed. Spatial trajectory features of the neighboring vehicles are processed and goes through a masked scatter mechanism in a grid based environment, which is then combined with temporal trajectory of the vehicles. This combined trajectory data are learned by sequential LSTM encoding and Transformer based attention layers. The proposed model is benchmarked against predecessor LSTM based methods, including STA-LSTM, SA-LSTM, CS-LSTM, and NaiveLSTM. Our results, while not outperforming it's predecessor, demonstrate the potential of integrating Transformers with LSTM based technique to build interpretable trajectory prediction model. Future work will explore alternative architectures using Transformer applications to further enhance performance. This study provides a promising direction for improving trajectory prediction models by leveraging transformer based architectures, paving the way for more robust and interpretable vehicle trajectory prediction system.
- Abstract(参考訳): 正確な車両軌道予測は、安全かつ効率的な自動運転を保証するために不可欠である。
本研究では,トランスフォーマーモデルとLong Short-Term Memory(LSTM)を併用した車両軌道予測における空間的・時間的特徴学習の強化について検討する。
本稿では,LSTMとトランスフォーマーエンコーダを組み合わせて,車両間の複雑な相互作用を捉えるハイブリッドモデルを提案する。
隣接する車両の空間軌道特徴を処理し、グリッドベース環境におけるマスク付き散乱機構を通過し、車両の時間軌道と組み合わせる。
この組み合わせトラジェクトリデータは、シーケンシャルLSTMエンコーディングとTransformerベースのアテンション層によって学習される。
提案手法は, STA-LSTM, SA-LSTM, CS-LSTM, NaiveLSTM など, 従来の LSTM ベースの手法に対してベンチマークを行う。
その結果,トランスフォーマーをLSTMベースの手法で統合し,解釈可能な軌道予測モデルを構築する可能性を示した。
今後は、Transformerアプリケーションを使った代替アーキテクチャを検討して、パフォーマンスをさらに向上する予定である。
本研究は、トランスフォーマーに基づくアーキテクチャを活用し、より堅牢で解釈可能な車両軌道予測システムへの道を開くことにより、軌道予測モデルを改善するための有望な方向を提供する。
関連論文リスト
- ConvLSTMTransNet: A Hybrid Deep Learning Approach for Internet Traffic Telemetry [0.0]
本稿では,時系列予測のためのハイブリッドディープラーニングモデルConvLSTMTransNetを提案する。
以上の結果から,ConvLSTMTransNetは予測精度において,ベースラインモデルよりも約10%優れていた。
論文 参考訳(メタデータ) (2024-09-20T03:12:57Z) - Beam Prediction based on Large Language Models [51.45077318268427]
ミリ波(mmWave)通信は次世代無線ネットワークに期待できるが、パス損失は大きい。
長短期記憶(LSTM)のような従来のディープラーニングモデルでは、ビーム追跡精度が向上するが、ロバスト性や一般化が不足している。
本稿では,大規模言語モデル(LLM)を用いて,ビーム予測の堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-08-16T12:40:01Z) - Crossfusor: A Cross-Attention Transformer Enhanced Conditional Diffusion Model for Car-Following Trajectory Prediction [10.814758830775727]
本研究では,自動車追従軌道予測のためのクロスアテンショントランスフォーマー拡張拡散モデル (Crossfusor) を提案する。
車両間の詳細な相互作用と自動車追従ダイナミクスを堅牢な拡散フレームワークに統合し、予測された軌道の精度と現実性を改善する。
NGSIMデータセットの実験結果から、クロスファザーは特に長期予測において最先端のモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-06-17T17:35:47Z) - TrTr: A Versatile Pre-Trained Large Traffic Model based on Transformer
for Capturing Trajectory Diversity in Vehicle Population [13.75828180340772]
本研究では,トランスフォーマーアーキテクチャを交通タスクに適用し,車内における軌道の多様性を学習することを目的とした。
我々は、注意機構に合わせてデータ構造を作成し、繰り返しの時間的要求に対応する一連のノイズを導入する。
設計した事前学習モデルは,車両の空間分布を捉える上で優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-22T07:36:22Z) - Transformers versus LSTMs for electronic trading [0.0]
本研究では,Transformerベースのモデルが金融時系列予測に適用可能か,LSTMに勝るかを検討する。
DLSTMと呼ばれるLSTMベースの新しいモデルを構築し、Transformerベースのモデルのための新しいアーキテクチャは、財務予測に適応するように設計されている。
実験結果は,Transformerベースのモデルが絶対価格列予測において限られた優位性しか持たないことを反映している。
論文 参考訳(メタデータ) (2023-09-20T15:25:43Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Haar Wavelet based Block Autoregressive Flows for Trajectories [129.37479472754083]
歩行者等の軌道予測は,自律型エージェントの性能向上に不可欠である。
本稿では分割結合を利用した新しいハールウェーブレットに基づくブロック自己回帰モデルを提案する。
実世界の2つのデータセット上で、多種多様な正確な軌跡を生成するアプローチの利点について説明する。
論文 参考訳(メタデータ) (2020-09-21T13:57:10Z) - A Multi-Modal States based Vehicle Descriptor and Dilated Convolutional
Social Pooling for Vehicle Trajectory Prediction [3.131740922192114]
本稿では,この問題を解決するために,拡張畳み込み社会プーリング(VD+DCS-LSTM)を用いた車両記述子に基づくLSTMモデルを提案する。
各車両のマルチモーダル状態情報がモデル入力として使用される。
モデル全体の妥当性はNGSIM US-101とI-80データセットで検証された。
論文 参考訳(メタデータ) (2020-03-07T01:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。