論文の概要: Pedestrian Path, Pose and Intention Prediction through Gaussian Process
Dynamical Models and Pedestrian Activity Recognition
- arxiv url: http://arxiv.org/abs/2004.14747v1
- Date: Thu, 30 Apr 2020 13:08:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:10:12.073207
- Title: Pedestrian Path, Pose and Intention Prediction through Gaussian Process
Dynamical Models and Pedestrian Activity Recognition
- Title(参考訳): ガウス過程の動的モデルと歩行者活動認識による歩行者経路・姿勢・意図予測
- Authors: Raul Quintero, Ignacio Parra, David Fernandez Llorca, Miguel Angel
Sotelo
- Abstract要約: 本稿では, 歩行者の歩行経路, ポーズ, 意図を事前に1秒まで予測する手法を提案する。
歩行開始後125msの開始動作を80%の精度で検出し、イベント前58.33msの停止意図を70%の精度で認識する。
経路予測については、1sのTime-To-Event(TTE)での活動を停止する平均誤差は238.01mmであり、開始動作では0sのTTEでの平均誤差は331.93mmである。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: According to several reports published by worldwide organisations, thousands
of pedestrians die in road accidents every year. Due to this fact, vehicular
technologies have been evolving with the intent of reducing these fatalities.
This evolution has not finished yet since, for instance, the predictions of
pedestrian paths could improve the current Automatic Emergency Braking Systems
(AEBS). For this reason, this paper proposes a method to predict future
pedestrian paths, poses and intentions up to 1s in advance. This method is
based on Balanced Gaussian Process Dynamical Models (B-GPDMs), which reduce the
3D time-related information extracted from keypoints or joints placed along
pedestrian bodies into low-dimensional spaces. The B-GPDM is also capable of
inferring future latent positions and reconstruct their associated
observations. However, learning a generic model for all kind of pedestrian
activities normally provides less ccurate predictions. For this reason, the
proposed method obtains multiple models of four types of activity, i.e.
walking, stopping, starting and standing, and selects the most similar model to
estimate future pedestrian states. This method detects starting activities
125ms after the gait initiation with an accuracy of 80% and recognises stopping
intentions 58.33ms before the event with an accuracy of 70%. Concerning the
path prediction, the mean error for stopping activities at a Time-To-Event
(TTE) of 1s is 238.01mm and, for starting actions, the mean error at a TTE of
0s is 331.93mm.
- Abstract(参考訳): 世界中の組織が公表したいくつかの報告によると、毎年何千人もの歩行者が道路事故で死亡している。
この事実により、車両技術はこれらの死者を減らす目的で進化してきた。
この進化はまだ完了していないが、例えば歩行者経路の予測は現在の自動緊急ブレーキシステム(AEBS)を改善する可能性がある。
そこで本研究では,歩行者の歩行経路,ポーズ,意図を事前に1秒まで予測する手法を提案する。
この手法は平衡ガウス過程力学モデル(B-GPDM)に基づいており、歩行者体に沿って配置されたキーポイントや関節から抽出された3次元時間関連情報を低次元空間に還元する。
B-GPDMはまた、将来の潜伏位置を推測し、関連する観測を再構築することができる。
しかしながら、あらゆる歩行者活動の一般的なモデルを学ぶことは、通常、正確な予測を少なくする。
そこで,提案手法は歩行,立ち止まり,立ち上がり,立ち上がりの4種類の活動の複数のモデルを求め,その最も類似したモデルを選択し,将来の歩行者状態を推定する。
歩行開始後125msの開始動作を80%の精度で検出し、イベント前の停止意図58.33msを70%の精度で認識する。
経路予測については、1sのTime-To-Event(TTE)での活動を停止する平均誤差は238.01mmであり、開始動作では0sのTTEでの平均誤差は331.93mmである。
関連論文リスト
- Uncertainty-Aware DRL for Autonomous Vehicle Crowd Navigation in Shared Space [3.487370856323828]
本研究は,モデルフリーDRLアルゴリズムのトレーニングにおいて,予測歩行者状態の不確かさを取り入れた統合予測と計画手法を導入する。
新たな報酬関数により、AVは歩行者の個人的な空間を尊重し、接近中の速度を減少させ、予測された経路との衝突確率を最小化する。
その結果, 衝突速度は40%減少し, 予測の不確実性を考慮しない技術モデルと比較すると, 歩行者との距離は15%増加した。
論文 参考訳(メタデータ) (2024-05-22T20:09:21Z) - Adaptive Human Trajectory Prediction via Latent Corridors [49.13061580045407]
シーン固有の適応軌道予測の問題を定式化する。
本稿では,潜伏回廊と呼ばれる即時チューニングにインスパイアされた新しい適応手法を提案する。
0.1%の追加モデルパラメータでは、MOTシンスシミュレーションデータの改善が23.9%、MOTおよびワイルドトラックにおけるADEが16.4%となる。
論文 参考訳(メタデータ) (2023-12-11T18:59:12Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - Pedestrian Stop and Go Forecasting with Hybrid Feature Fusion [87.77727495366702]
歩行者の立ち止まりと予測の新たな課題を紹介します。
都市交通における歩行者の立ち寄り行動を明示的に研究するためのベンチマークであるTransをリリースする。
歩行者の歩行動作に注釈を付けたいくつかの既存のデータセットから構築し、さまざまなシナリオや行動を実現する。
論文 参考訳(メタデータ) (2022-03-04T18:39:31Z) - Is attention to bounding boxes all you need for pedestrian action
prediction? [1.3999481573773074]
本稿では,トランスフォーマーモデルの多変量に基づく枠組みを提案し,歩行者の過去の軌跡の動的進化を注意深く推察する。
我々のモデルに対する入力としてバウンディングボックスのみを使用することで、従来の最先端モデルよりも優れていることを示す。
我々のモデルも同様に、このデータセット上で高い精度 (91 と F1 スコア (0.91) に達した。
論文 参考訳(メタデータ) (2021-07-16T17:47:32Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction [24.855059537779294]
本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
論文 参考訳(メタデータ) (2020-05-08T18:43:01Z) - Action Sequence Predictions of Vehicles in Urban Environments using Map
and Social Context [152.0714518512966]
本研究は、現実の運転シナリオにおける周辺車両の今後の行動の順序を予測する問題について研究する。
最初のコントリビューションは、現実世界の運転シナリオに記録された軌跡をHDマップの助けを借りてアクションシーケンスに変換する自動手法である。
第2のコントリビューションは、よく知られたトラフィックエージェント追跡と予測データセットArgoverseへのメソッドの適用であり、結果として228,000のアクションシーケンスが生成される。
第3のコントリビューションは,交通エージェント,地図情報,社会状況の過去の位置と速度を,単一エンドツーエンドのトレーニング可能なニューラルネットワークに統合して,新たな行動シーケンス予測手法を提案することである。
論文 参考訳(メタデータ) (2020-04-29T14:59:58Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。