論文の概要: Valeo Near-Field: a novel dataset for pedestrian intent detection
- arxiv url: http://arxiv.org/abs/2510.15673v1
- Date: Fri, 17 Oct 2025 14:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.647357
- Title: Valeo Near-Field: a novel dataset for pedestrian intent detection
- Title(参考訳): Valeo Near-Field:歩行者意図検出のための新しいデータセット
- Authors: Antonyo Musabini, Rachid Benmokhtar, Jagdish Bhanushali, Victor Galizzi, Bertrand Luvison, Xavier Perrotton,
- Abstract要約: 本稿では,エゴ車両に接近する歩行者の意図を検出するための新しいデータセットを提案する。
データセットは、魚眼カメラフィード、ライダーレーザースキャン、超音波センサー読み取り、モーションキャプチャベースの3Dボディポーズを含む、同期されたマルチモーダルデータを含む。
- 参考スコア(独自算出の注目度): 21.659078060884614
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a novel dataset aimed at detecting pedestrians' intentions as they approach an ego-vehicle. The dataset comprises synchronized multi-modal data, including fisheye camera feeds, lidar laser scans, ultrasonic sensor readings, and motion capture-based 3D body poses, collected across diverse real-world scenarios. Key contributions include detailed annotations of 3D body joint positions synchronized with fisheye camera images, as well as accurate 3D pedestrian positions extracted from lidar data, facilitating robust benchmarking for perception algorithms. We release a portion of the dataset along with a comprehensive benchmark suite, featuring evaluation metrics for accuracy, efficiency, and scalability on embedded systems. By addressing real-world challenges such as sensor occlusions, dynamic environments, and hardware constraints, this dataset offers a unique resource for developing and evaluating state-of-the-art algorithms in pedestrian detection, 3D pose estimation and 4D trajectory and intention prediction. Additionally, we provide baseline performance metrics using custom neural network architectures and suggest future research directions to encourage the adoption and enhancement of the dataset. This work aims to serve as a foundation for researchers seeking to advance the capabilities of intelligent vehicles in near-field scenarios.
- Abstract(参考訳): 本稿では,エゴ車両に接近する歩行者の意図を検出するための新しいデータセットを提案する。
このデータセットは、魚眼カメラのフィード、ライダーレーザースキャン、超音波センサーの読み取り、モーションキャプチャに基づく3Dボディポーズなど、さまざまな現実世界のシナリオで収集された、同期されたマルチモーダルデータを含む。
主なコントリビューションには、魚眼カメラ画像と同期した3Dボディジョイント位置の詳細なアノテーション、ライダーデータから抽出された正確な3D歩行者位置、知覚アルゴリズムの堅牢なベンチマークを容易にすることが含まれる。
組込みシステムの精度、効率、スケーラビリティを評価する指標を特徴とする、包括的なベンチマークスイートとともに、データセットの一部をリリースしています。
センサの閉塞、動的環境、ハードウェアの制約といった現実的な課題に対処することにより、このデータセットは、歩行者検出、3Dポーズ推定、4D軌道および意図予測における最先端アルゴリズムの開発と評価のためのユニークなリソースを提供する。
さらに、カスタムニューラルネットワークアーキテクチャを使用してベースラインパフォーマンスメトリクスを提供し、データセットの採用と強化を促進するための今後の研究方向を提案する。
この研究は、近場のシナリオにおけるインテリジェントな車両の能力向上を目指す研究者の基盤となることを目的としている。
関連論文リスト
- RS3DBench: A Comprehensive Benchmark for 3D Spatial Perception in Remote Sensing [71.75704516333394]
本稿では、RS3DBenchと呼ばれるリモートセンシング画像の3次元理解のためのビジュアルベンチマークを提案する。
このデータセットは、54,951対のリモートセンシング画像とピクセルレベルの一致した深度マップを含んでいる。
安定拡散から導かれるリモートセンシング深度推定モデルを導入し,そのマルチモーダル融合機能を利用する。
論文 参考訳(メタデータ) (2025-09-23T11:20:51Z) - S-LAM3D: Segmentation-Guided Monocular 3D Object Detection via Feature Space Fusion [0.0]
モノクロ3Dオブジェクト検出は、使用する入力の性質のため、コンピュータビジョンの課題を表す。
本稿では,事前計算されたセグメンテーション情報を挿入し,特徴空間に直接ファインダをファインダに注入して検出を誘導する分離戦略を提案する。
提案手法はKITTI 3D Object Detection Benchmarkで評価され,RGB画像にのみ依存する等価なアーキテクチャをシーン内の小さなオブジェクトに対して実現している。
論文 参考訳(メタデータ) (2025-09-07T10:14:56Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Multi-Camera Multiple 3D Object Tracking on the Move for Autonomous
Vehicles [17.12321292167318]
オブジェクトの検出と追跡は、カメラのビューにまたがって一貫した結果を達成するなど、新しい課題に対処するために重要である。
本研究は,既存のトラックレットの位置とリンク検出をトラックレットで予測するために,リンク予測を用いた新たなグローバルアソシエーショングラフモデルを提案する。
本モデルは, nuScenes 検出課題における標準3次元物体検出器の検出精度の向上に有効である。
論文 参考訳(メタデータ) (2022-04-19T22:50:36Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。