論文の概要: PIP-Net: Pedestrian Intention Prediction in the Wild
- arxiv url: http://arxiv.org/abs/2402.12810v2
- Date: Fri, 1 Mar 2024 15:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 19:44:53.249330
- Title: PIP-Net: Pedestrian Intention Prediction in the Wild
- Title(参考訳): PIP-Net: 野生における歩行者の意図予測
- Authors: Mohsen Azarmi, Mahdi Rezaei, He Wang, Sebastien Glaser
- Abstract要約: PIP-Netは、現実の都市シナリオにおいて、AVによる歩行者横断意図を予測するために設計された新しいフレームワークである。
我々は、異なるカメラマウントとセットアップ用に設計された2種類のPIP-Netを提供する。
提案モデルでは、繰り返し時間的注意に基づく解を用いて、最先端の性能を向上する。
最初に、カスタマイズされた歩行者意図予測データセットであるUrban-PIPデータセットを提示する。
- 参考スコア(独自算出の注目度): 11.799731429829603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate pedestrian intention prediction (PIP) by Autonomous Vehicles (AVs)
is one of the current research challenges in this field. In this article, we
introduce PIP-Net, a novel framework designed to predict pedestrian crossing
intentions by AVs in real-world urban scenarios. We offer two variants of
PIP-Net designed for different camera mounts and setups. Leveraging both
kinematic data and spatial features from the driving scene, the proposed model
employs a recurrent and temporal attention-based solution, outperforming
state-of-the-art performance. To enhance the visual representation of road
users and their proximity to the ego vehicle, we introduce a categorical depth
feature map, combined with a local motion flow feature, providing rich insights
into the scene dynamics. Additionally, we explore the impact of expanding the
camera's field of view, from one to three cameras surrounding the ego vehicle,
leading to enhancement in the model's contextual perception. Depending on the
traffic scenario and road environment, the model excels in predicting
pedestrian crossing intentions up to 4 seconds in advance which is a
breakthrough in current research studies in pedestrian intention prediction.
Finally, for the first time, we present the Urban-PIP dataset, a customised
pedestrian intention prediction dataset, with multi-camera annotations in
real-world automated driving scenarios.
- Abstract(参考訳): 自律走行車(AV)による正確な歩行者意図予測(PIP)はこの分野で現在進行中の研究課題の一つである。
本稿では,現実の都市シナリオにおけるAVによる歩行者横断意図の予測を目的とした新しいフレームワークであるPIP-Netを紹介する。
異なるカメラマウントとセットアップ用に設計された2種類のPIP-Netを提供する。
運転シーンからの運動データと空間的特徴の両方を活用し,提案手法は反復的および時間的注意に基づくソリューションを採用し,最先端性能を上回っている。
道路利用者の視覚的表現とエゴ車との近接性を高めるため,局所的な動き流特徴と組み合わせたカテゴリー的深度特徴マップを導入し,シーンの動態について深い洞察を提供する。
さらに,エゴ車を取り巻くカメラ1台から3台まで,カメラの視野を広げることによる影響について検討し,モデルの文脈的知覚の向上につながる。
交通シナリオや道路環境によっては、歩行者の横断意図を4秒前まで予測することが優れており、現在の歩行者意図予測研究における画期的な研究である。
最後に,実世界の自動運転シナリオにおいて,マルチカメラアノテーションを用いた歩行者意図予測データセットであるurban-pipデータセットを初めて紹介する。
関連論文リスト
- BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z) - Multi-Modal Hybrid Architecture for Pedestrian Action Prediction [14.032334569498968]
本研究では,歩行者の横断行動を予測するために,環境から取得したさまざまな情報ソースを組み込んだ新しいマルチモーダル予測アルゴリズムを提案する。
既存の2次元歩行者行動ベンチマークと新たに注釈付けされた3次元運転データセットを用いて,提案モデルが歩行者横断予測における最先端性能を達成することを示す。
論文 参考訳(メタデータ) (2020-11-16T15:17:58Z) - Map-Adaptive Goal-Based Trajectory Prediction [3.1948816877289263]
本稿では,多モーダル・長期車両軌道予測のための新しい手法を提案する。
提案手法は,各車両に提案された目標経路の集合を生成するために,環境のリッチマップで捉えた車線中心線を利用することに依存する。
本モデルは,6秒の水平線上での車両軌道予測において,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-09T17:57:01Z) - Two-Stream Networks for Lane-Change Prediction of Surrounding Vehicles [8.828423067460644]
高速道路のシナリオでは、人間のドライバーは視覚的手がかりのみを使用して車両を取り巻く早期の切り込みと切り抜きの操作を予想する。
周囲車両の車線変化認識と予測に対処するため,ビデオカメラからの視覚的手がかりを積み重ねることで,行動認識・予測問題としてこの問題を提起する。
2ストリーム畳み込みネットワークと乗算器ネットワークという2つのビデオアクション認識アプローチが分析されている。
論文 参考訳(メタデータ) (2020-08-25T07:59:15Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。