論文の概要: SGNetPose+: Stepwise Goal-Driven Networks with Pose Information for Trajectory Prediction in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2503.08016v1
- Date: Tue, 11 Mar 2025 03:45:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:43:48.515916
- Title: SGNetPose+: Stepwise Goal-Driven Networks with Pose Information for Trajectory Prediction in Autonomous Driving
- Title(参考訳): SGNetPose+: 自律走行における軌道予測のための姿勢情報付きステップワイドゴール駆動ネットワーク
- Authors: Akshat Ghiya, Ali K. AlShami, Jugal Kalita,
- Abstract要約: SGNetPose+は,骨格情報や身体セグメント角をバウンディングボックスに統合するように設計されたSGNetアーキテクチャの拡張である。
ポーズ推定モデルを用いて骨格情報を抽出し, 抽出した関節データに基づいて関節角を計算した。
提案手法は,JAADデータセットとPIEデータセットをバウンディングボックスを用いたポーズデータを用いて実現し,SGNetモデルより優れている。
- 参考スコア(独自算出の注目度): 6.349503549199403
- License:
- Abstract: Predicting pedestrian trajectories is essential for autonomous driving systems, as it significantly enhances safety and supports informed decision-making. Accurate predictions enable the prevention of collisions, anticipation of crossing intent, and improved overall system efficiency. In this study, we present SGNetPose+, an enhancement of the SGNet architecture designed to integrate skeleton information or body segment angles with bounding boxes to predict pedestrian trajectories from video data to avoid hazards in autonomous driving. Skeleton information was extracted using a pose estimation model, and joint angles were computed based on the extracted joint data. We also apply temporal data augmentation by horizontally flipping video frames to increase the dataset size and improve performance. Our approach achieves state-of-the-art results on the JAAD and PIE datasets using pose data with the bounding boxes, outperforming the SGNet model. Code is available on Github: SGNetPose+.
- Abstract(参考訳): 歩行者軌跡の予測は、安全を著しく向上し、情報的意思決定をサポートするため、自律運転システムにとって不可欠である。
正確な予測は衝突の防止、交差意図の予測、システム全体の効率の改善を可能にする。
本研究では,SGNetPose+による骨格情報や身体セグメントの角度をバウンディングボックスと統合し,映像データから歩行者の軌跡を予測し,自動運転の危険を避けるために設計したSGNetアーキテクチャの強化について述べる。
ポーズ推定モデルを用いて骨格情報を抽出し, 抽出した関節データに基づいて関節角を計算した。
また,ビデオフレームの水平反転による時間的データ拡張を適用して,データセットのサイズを拡大し,性能を向上させる。
提案手法は,JAADデータセットとPIEデータセットをバウンディングボックスを用いたポーズデータを用いて実現し,SGNetモデルより優れている。
コードはGithubで入手できる。
関連論文リスト
- MFTraj: Map-Free, Behavior-Driven Trajectory Prediction for Autonomous Driving [15.965681867350215]
本稿では,自律走行に適した軌道予測モデルを提案する。
歴史的軌跡データと新しい幾何学的動的グラフに基づく行動認識モジュールを組み合わせる。
計算効率とパラメータオーバーヘッドの低減を実現している。
論文 参考訳(メタデータ) (2024-05-02T13:13:52Z) - Synthetic Data Generation Framework, Dataset, and Efficient Deep Model for Pedestrian Intention Prediction [0.07499722271664144]
エゴ車の前で歩行者が横断するかどうかを知ることは、自動運転にとって不可欠だ。
これに対する要因は、さまざまなクロスクロスノンクロス(C/NC)シナリオを持つデータセットの欠如である。
Ped/NCビデオクリップのサンプルからなる合成データセットを生成するARCRUフレームワークを導入することで、この問題に対処する。
また,高速かつメモリフットプリントの少ないPedGNNというディープモデルを提案する。
論文 参考訳(メタデータ) (2024-01-12T18:44:01Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - CASPNet++: Joint Multi-Agent Motion Prediction [2.041875623674907]
改善されたコンテキスト認識シーン予測ネットワーク(ASPNet)であるCASPNet++を提案する。
本研究では,現場における道路利用者の協調予測を支援するために,インタラクションモデリングとシーン理解をさらに強化することに焦点を当てる。
我々は,HDマップ,レーダ検出,ライダーセグメンテーションなどの多様な環境入力源を利用するCASPNet++のスケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-08-15T13:09:33Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。