論文の概要: Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction
- arxiv url: http://arxiv.org/abs/2002.08945v1
- Date: Thu, 20 Feb 2020 18:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:52:42.722697
- Title: Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction
- Title(参考訳): 歩行者インテント予測のための時空間関係推論
- Authors: Bingbin Liu, Ehsan Adeli, Zhangjie Cao, Kuan-Hui Lee, Abhijeet Shenoi,
Adrien Gaidon, Juan Carlos Niebles
- Abstract要約: 視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
- 参考スコア(独自算出の注目度): 57.56466850377598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning over visual data is a desirable capability for robotics and
vision-based applications. Such reasoning enables forecasting of the next
events or actions in videos. In recent years, various models have been
developed based on convolution operations for prediction or forecasting, but
they lack the ability to reason over spatiotemporal data and infer the
relationships of different objects in the scene. In this paper, we present a
framework based on graph convolution to uncover the spatiotemporal
relationships in the scene for reasoning about pedestrian intent. A scene graph
is built on top of segmented object instances within and across video frames.
Pedestrian intent, defined as the future action of crossing or not-crossing the
street, is a very crucial piece of information for autonomous vehicles to
navigate safely and more smoothly. We approach the problem of intent prediction
from two different perspectives and anticipate the intention-to-cross within
both pedestrian-centric and location-centric scenarios. In addition, we
introduce a new dataset designed specifically for autonomous-driving scenarios
in areas with dense pedestrian populations: the Stanford-TRI Intent Prediction
(STIP) dataset. Our experiments on STIP and another benchmark dataset show that
our graph modeling framework is able to predict the intention-to-cross of the
pedestrians with an accuracy of 79.10% on STIP and 79.28% on \rev{Joint
Attention for Autonomous Driving (JAAD) dataset up to one second earlier than
when the actual crossing happens. These results outperform the baseline and
previous work. Please refer to http://stip.stanford.edu/ for the dataset and
code.
- Abstract(参考訳): 視覚データに対する推論は、ロボット工学と視覚ベースのアプリケーションにとって望ましい能力である。
このような推論は、ビデオ内の次のイベントやアクションの予測を可能にする。
近年、予測や予測のための畳み込み操作に基づく様々なモデルが開発されているが、時空間データを解析し、シーン内の異なる物体の関係を推測する能力は欠如している。
本稿では,歩行者の意図を推論する場面における時空間関係を明らかにするために,グラフ畳み込みに基づく枠組みを提案する。
シーングラフはビデオフレーム内のセグメント化されたオブジェクトインスタンスの上に構築される。
歩行者の意図は、道路を横断する、または横断しない将来の行動として定義されており、自動運転車が安全によりスムーズに移動するための重要な情報である。
2つの異なる視点から意図予測の問題にアプローチし,歩行者中心と位置中心の両方のシナリオにおける意図と交差を予測した。
さらに、人口密度の高い地域での自動運転シナリオに特化した新しいデータセットとして、Stanford-TRI Intent Prediction(STIP)データセットを導入する。
我々のSTIPおよび他のベンチマークデータセットを用いた実験により、我々のグラフモデリングフレームワークは、SSTIP上で79.10%の精度で歩行者を横断する意図を予測でき、また、実際の横断よりも1秒早く、自動運転(JAAD)のデータセット上で79.28%の精度を予測できることがわかった。
これらの結果は、ベースラインと以前の作業よりも優れています。
データセットとコードについてはhttp://stip.stanford.edu/を参照してください。
関連論文リスト
- HPNet: Dynamic Trajectory Forecasting with Historical Prediction Attention [76.37139809114274]
HPNetは、新しい動的軌道予測手法である。
逐次予測間の動的関係を自動的に符号化する履歴予測アテンションモジュールを提案する。
私たちのコードはhttps://github.com/XiaolongTang23/HPNetで利用可能です。
論文 参考訳(メタデータ) (2024-04-09T14:42:31Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Pedestrian Stop and Go Forecasting with Hybrid Feature Fusion [87.77727495366702]
歩行者の立ち止まりと予測の新たな課題を紹介します。
都市交通における歩行者の立ち寄り行動を明示的に研究するためのベンチマークであるTransをリリースする。
歩行者の歩行動作に注釈を付けたいくつかの既存のデータセットから構築し、さまざまなシナリオや行動を実現する。
論文 参考訳(メタデータ) (2022-03-04T18:39:31Z) - LOKI: Long Term and Key Intentions for Trajectory Prediction [22.097307597204736]
軌道予測の最近の進歩は、エージェントの意図に関する明確な推論が、その動きを正確に予測することが重要であることを示している。
共同軌道と意図予測に対処するために設計された,新しい大規模データセットであるLOKI(Long term and Key Intentions)を提案する。
提案手法は,最先端の軌道予測手法を最大27%まで向上させ,フレームワイドな意図推定のためのベースラインを提供する。
論文 参考訳(メタデータ) (2021-08-18T16:57:03Z) - Is attention to bounding boxes all you need for pedestrian action
prediction? [1.3999481573773074]
本稿では,トランスフォーマーモデルの多変量に基づく枠組みを提案し,歩行者の過去の軌跡の動的進化を注意深く推察する。
我々のモデルに対する入力としてバウンディングボックスのみを使用することで、従来の最先端モデルよりも優れていることを示す。
我々のモデルも同様に、このデータセット上で高い精度 (91 と F1 スコア (0.91) に達した。
論文 参考訳(メタデータ) (2021-07-16T17:47:32Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z) - Graph-SIM: A Graph-based Spatiotemporal Interaction Modelling for
Pedestrian Action Prediction [10.580548257913843]
本稿では,歩行者の横断行動を予測するための新しいグラフベースモデルを提案する。
既存のnuScenesデータセットに対して、3Dバウンディングボックスと歩行者行動アノテーションを提供する新しいデータセットを紹介します。
提案手法は,既存の手法と比較して,様々な指標を15%以上改善し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-12-03T18:28:27Z) - Pedestrian Intention Prediction: A Multi-task Perspective [83.7135926821794]
グローバルに展開するためには、自動運転車は歩行者の安全を保証する必要がある。
本研究は歩行者の意図と視覚状態を共同で予測することでこの問題を解決しようとするものである。
この方法はマルチタスク学習アプローチにおけるリカレントニューラルネットワークである。
論文 参考訳(メタデータ) (2020-10-20T13:42:31Z) - STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction [24.855059537779294]
本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
論文 参考訳(メタデータ) (2020-05-08T18:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。