論文の概要: Fusion-GRU: A Deep Learning Model for Future Bounding Box Prediction of
Traffic Agents in Risky Driving Videos
- arxiv url: http://arxiv.org/abs/2308.06628v1
- Date: Sat, 12 Aug 2023 18:35:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 16:13:24.975588
- Title: Fusion-GRU: A Deep Learning Model for Future Bounding Box Prediction of
Traffic Agents in Risky Driving Videos
- Title(参考訳): Fusion-GRU:危険運転映像における交通エージェントの今後の境界ボックス予測のための深層学習モデル
- Authors: Muhammad Monjurul Karim, Ruwen Qin, Yinhai Wang
- Abstract要約: Fusion-Gated Recurrent Unit (Fusion-GRU)は、将来のバウンディングボックスローカライゼーションのための新しいエンコーダデコーダアーキテクチャである。
提案手法は, ROL と HEV-I の2つの公開データセットを用いて評価する。
- 参考スコア(独自算出の注目度): 20.923004256768635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To ensure the safe and efficient navigation of autonomous vehicles and
advanced driving assistance systems in complex traffic scenarios, predicting
the future bounding boxes of surrounding traffic agents is crucial. However,
simultaneously predicting the future location and scale of target traffic
agents from the egocentric view poses challenges due to the vehicle's egomotion
causing considerable field-of-view changes. Moreover, in anomalous or risky
situations, tracking loss or abrupt motion changes limit the available
observation time, requiring learning of cues within a short time window.
Existing methods typically use a simple concatenation operation to combine
different cues, overlooking their dynamics over time. To address this, this
paper introduces the Fusion-Gated Recurrent Unit (Fusion-GRU) network, a novel
encoder-decoder architecture for future bounding box localization. Unlike
traditional GRUs, Fusion-GRU accounts for mutual and complex interactions among
input features. Moreover, an intermediary estimator coupled with a
self-attention aggregation layer is also introduced to learn sequential
dependencies for long range prediction. Finally, a GRU decoder is employed to
predict the future bounding boxes. The proposed method is evaluated on two
publicly available datasets, ROL and HEV-I. The experimental results showcase
the promising performance of the Fusion-GRU, demonstrating its effectiveness in
predicting future bounding boxes of traffic agents.
- Abstract(参考訳): 複雑な交通シナリオにおいて、自動運転車と先進運転支援システムの安全かつ効率的なナビゲーションを確保するためには、周辺交通機関の今後の境界ボックスを予測することが不可欠である。
しかし、エゴセントリックな視点から目標交通機関の将来の位置と規模を同時に予測することは、車両の自走性が大幅に変化することによる課題を生じさせる。
さらに、異常な状況や危険な状況では、追跡損失や急激な動きの変化が観測時間を制限し、短時間の窓口で手がかりを学習する必要がある。
既存の手法は通常、単純な連結操作を使用して異なる手がかりを結合し、時間とともにそのダイナミクスを見下ろす。
そこで,本稿では,新しいエンコーダデコーダアーキテクチャである fusion-gated recurrent unit (fusion-gru) network を提案する。
従来のGRUとは異なり、Fusion-GRUは入力機能間の相互および複雑な相互作用を担っている。
さらに,自己アテンション集約層と結合した中間推定器を導入し,長期予測のための逐次的依存関係を学習する。
最後に、将来のバウンディングボックスを予測するためにGRUデコーダが使用される。
提案手法は, ROL と HEV-I の2つの公開データセットを用いて評価する。
実験の結果,Fusion-GRUの有望な性能を示し,将来的な交通機関の境界ボックス予測の有効性を示した。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - SocialFormer: Social Interaction Modeling with Edge-enhanced Heterogeneous Graph Transformers for Trajectory Prediction [3.733790302392792]
SocialFormerはエージェント間相互作用を意識した軌道予測手法である。
本稿では,エージェント動作の時間的社会的挙動をモデル化するために,ゲートリカレント単位(GRU)に基づくテンポラルエンコーダを提案する。
一般的なnuScenesベンチマークの軌道予測タスクとしてSocialFormerを評価し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-06T19:47:23Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Graph-Based Interaction-Aware Multimodal 2D Vehicle Trajectory
Prediction using Diffusion Graph Convolutional Networks [17.989423104706397]
本研究では,グラフに基づく対話型多モード軌道予測フレームワークを提案する。
このフレームワーク内では、車両の動きは時間変化グラフのノードとして概念化され、交通相互作用は動的隣接行列によって表現される。
我々は、意図特異的な特徴融合を採用し、歴史的および将来の埋め込みの適応的な統合を可能にする。
論文 参考訳(メタデータ) (2023-09-05T06:28:13Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Pedestrian Trajectory Prediction via Spatial Interaction Transformer
Network [7.150832716115448]
交通現場では、来るべき人々と出会うと、歩行者は突然回転したり、すぐに止まることがある。
このような予測不可能な軌道を予測するために、歩行者間の相互作用についての洞察を得ることができる。
本稿では,歩行者軌跡の相関関係を注意機構を用いて学習する空間的相互作用変換器(SIT)を提案する。
論文 参考訳(メタデータ) (2021-12-13T13:08:04Z) - Decoder Fusion RNN: Context and Interaction Aware Decoders for
Trajectory Prediction [53.473846742702854]
本稿では,動き予測のための反復的,注意に基づくアプローチを提案する。
Decoder Fusion RNN (DF-RNN) は、リカレント動作エンコーダ、エージェント間マルチヘッドアテンションモジュール、コンテキスト認識デコーダで構成される。
提案手法の有効性をArgoverseモーション予測データセットで検証し,その性能を公開ベンチマークで示す。
論文 参考訳(メタデータ) (2021-08-12T15:53:37Z) - End-to-end Contextual Perception and Prediction with Interaction
Transformer [79.14001602890417]
我々は3次元物体の検出と将来の動きを自動運転の文脈で予測する問題に取り組む。
空間的・時間的依存関係を捉えるために,新しいトランスフォーマーアーキテクチャを用いたリカレントニューラルネットワークを提案する。
私たちのモデルはエンドツーエンドでトレーニングでき、リアルタイムで実行されます。
論文 参考訳(メタデータ) (2020-08-13T14:30:12Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Probabilistic Crowd GAN: Multimodal Pedestrian Trajectory Prediction
using a Graph Vehicle-Pedestrian Attention Network [12.070251470948772]
本稿では,確率的集団GANが確率的マルチモーダル予測をどうやって生成できるかを示す。
ソーシャルインタラクションをモデル化するグラフ車両歩行者注意ネットワーク(GVAT)も提案する。
本研究では,軌道予測手法の既存の状況の改善を実証し,集団間相互作用の真のマルチモーダル性と不確実性を直接モデル化する方法について述べる。
論文 参考訳(メタデータ) (2020-06-23T11:25:16Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。