論文の概要: STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2005.04255v1
- Date: Fri, 8 May 2020 18:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:52:21.843315
- Title: STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction
- Title(参考訳): STINet:歩行者検出と軌道予測のための時空間対話型ネットワーク
- Authors: Zhishuai Zhang, Jiyang Gao, Junhua Mao, Yukai Liu, Dragomir Anguelov,
Congcong Li
- Abstract要約: 本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
- 参考スコア(独自算出の注目度): 24.855059537779294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting pedestrians and predicting future trajectories for them are
critical tasks for numerous applications, such as autonomous driving. Previous
methods either treat the detection and prediction as separate tasks or simply
add a trajectory regression head on top of a detector. In this work, we present
a novel end-to-end two-stage network: Spatio-Temporal-Interactive Network
(STINet). In addition to 3D geometry modeling of pedestrians, we model the
temporal information for each of the pedestrians. To do so, our method predicts
both current and past locations in the first stage, so that each pedestrian can
be linked across frames and the comprehensive spatio-temporal information can
be captured in the second stage. Also, we model the interaction among objects
with an interaction graph, to gather the information among the neighboring
objects. Comprehensive experiments on the Lyft Dataset and the recently
released large-scale Waymo Open Dataset for both object detection and future
trajectory prediction validate the effectiveness of the proposed method. For
the Waymo Open Dataset, we achieve a bird-eyes-view (BEV) detection AP of 80.73
and trajectory prediction average displacement error (ADE) of 33.67cm for
pedestrians, which establish the state-of-the-art for both tasks.
- Abstract(参考訳): 歩行者の検出と将来の軌道予測は、自動運転のような多くのアプリケーションにとって重要なタスクである。
以前の方法は、検出と予測を別のタスクとして扱うか、単に検出器の上に軌道回帰ヘッドを追加するだけであった。
本研究では,新しい2段階ネットワークであるspatio-Temporal-Interactive Network (STINet)を提案する。
歩行者の3次元形状モデリングに加えて,各歩行者の時間情報をモデル化する。
そこで本手法は,第1段階における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクし,第2段階において時空間情報を包括的に把握する。
また、オブジェクト間の相互作用を相互作用グラフでモデル化し、隣接するオブジェクト間の情報収集を行う。
Lyft Datasetと最近リリースされた大規模Waymo Open Datasetに関する総合的な実験では、オブジェクト検出と将来の軌道予測の両方が提案手法の有効性を検証する。
Waymo Open Datasetでは,80.73の鳥眼視(BEV)検出APと33.67cmの軌道予測平均変位誤差(ADE)を達成し,両タスクの最先端性を確立する。
関連論文リスト
- DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - SAPI: Surroundings-Aware Vehicle Trajectory Prediction at Intersections [4.982485708779067]
SAPIは交差点での車両軌道を予測するためのディープラーニングモデルである。
提案モデルは2つの畳み込みニューラルネットワーク(CNN)と1つのデコーダからなる。
我々は、自動運転車を介して現実世界の交差点で収集されたプロプライエタリなデータセット上でSAPIを評価する。
論文 参考訳(メタデータ) (2023-06-02T07:10:45Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - Stepwise Goal-Driven Networks for Trajectory Prediction [24.129731432223416]
観測されたエージェントの将来の軌跡を,複数の時間スケールで推定し,その目標を用いて予測することを提案する。
SGNet(Stepwise Goal-Driven Network)という新しい軌道予測ネットワークを提案する。
特に、フレームワークには、履歴情報をキャプチャするエンコーダモジュール、一連の目標を未来に予測するステップワイズ目標推定モジュール、将来の軌道を予測するデコーダモジュールが組み込まれています。
論文 参考訳(メタデータ) (2021-03-25T19:51:54Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。