論文の概要: SEPose: A Synthetic Event-based Human Pose Estimation Dataset for Pedestrian Monitoring
- arxiv url: http://arxiv.org/abs/2507.11910v1
- Date: Wed, 16 Jul 2025 04:54:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.230181
- Title: SEPose: A Synthetic Event-based Human Pose Estimation Dataset for Pedestrian Monitoring
- Title(参考訳): SEPose: 歩行者モニタリングのための合成イベントベースヒューマンポース推定データセット
- Authors: Kaustav Chanda, Aayush Atul Verma, Arpitsinh Vaghela, Yezhou Yang, Bharatesh Chakravarthi,
- Abstract要約: SEPoseは、CARLAシミュレータの動的視覚センサを用いて、固定された歩行者知覚のための合成多対人ポーズ推定データセットである。
我々は、RVTやYOLOv8といった既存の最先端モデルをデータセットでトレーニングし、実際のイベントベースデータ上で評価し、提案データセットのシミュレート・トゥ・リアルな一般化能力を実証する。
- 参考スコア(独自算出の注目度): 20.537672896807063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event-based sensors have emerged as a promising solution for addressing challenging conditions in pedestrian and traffic monitoring systems. Their low-latency and high dynamic range allow for improved response time in safety-critical situations caused by distracted walking or other unusual movements. However, the availability of data covering such scenarios remains limited. To address this gap, we present SEPose -- a comprehensive synthetic event-based human pose estimation dataset for fixed pedestrian perception generated using dynamic vision sensors in the CARLA simulator. With nearly 350K annotated pedestrians with body pose keypoints from the perspective of fixed traffic cameras, SEPose is a comprehensive synthetic multi-person pose estimation dataset that spans busy and light crowds and traffic across diverse lighting and weather conditions in 4-way intersections in urban, suburban, and rural environments. We train existing state-of-the-art models such as RVT and YOLOv8 on our dataset and evaluate them on real event-based data to demonstrate the sim-to-real generalization capabilities of the proposed dataset.
- Abstract(参考訳): 歩行者や交通監視システムにおける課題に対処するための,イベントベースのセンサが,有望なソリューションとして登場した。
低いレイテンシと高いダイナミックレンジは、散逸した歩行やその他の異常な動きによって引き起こされる安全クリティカルな状況における応答時間を改善することができる。
しかし、そのようなシナリオをカバーするデータの可用性は依然として限られている。
このギャップに対処するために、我々は、CARLAシミュレータで動的視覚センサを用いて生成された固定された歩行者知覚のための総合的なイベントベースのヒューマンポーズ推定データセットであるSEPoseを提案する。
固定された交通カメラの観点からは、350K近いアノテート歩行者がキーポイントを付けているため、SEPoseは、都市、郊外、農村の4方向の交差点で、多人数と軽量の群衆と多様な照明と気象条件にまたがる交通にまたがる総合的な総合的な多人数ポーズ推定データセットである。
我々は、RVTやYOLOv8といった既存の最先端モデルをデータセットでトレーニングし、実際のイベントベースデータ上で評価し、提案データセットのシミュレート・トゥ・リアルな一般化能力を実証する。
関連論文リスト
- How Real is CARLAs Dynamic Vision Sensor? A Study on the Sim-to-Real Gap in Traffic Object Detection [0.0]
イベントカメラは、交差点でのリアルタイム物体検出に適している。
堅牢なイベントベース検出モデルの開発は、注釈付き現実世界データセットの可用性の制限によって妨げられている。
本研究では,CARLAs DVSを用いたイベントベース物体検出におけるsim-to-realギャップの定量的解析を行った。
論文 参考訳(メタデータ) (2025-06-16T17:27:43Z) - Highly Accurate and Diverse Traffic Data: The DeepScenario Open 3D Dataset [25.244956737443527]
我々は,新しいモノクラーカメラドローン追跡パイプラインによって得られた6自由度境界ボックス軌道のDeepScenario Open 3Dデータセット(DSC3D)を紹介した。
当社のデータセットには、14種類のトラフィック参加者の175,000以上のトラジェクトリが含まれており、多様性とスケールの点で既存のデータセットを大きく上回っている。
動作予測,動作計画,シナリオマイニング,生成反応性トラフィックエージェントなど,複数のアプリケーションにまたがる実用性を実証する。
論文 参考訳(メタデータ) (2025-04-24T08:43:48Z) - DrivingSphere: Building a High-fidelity 4D World for Closed-loop Simulation [54.02069690134526]
本研究では,現実的でクローズドループなシミュレーションフレームワークであるDrivingSphereを提案する。
その中核となる考え方は、4Dの世界表現を構築し、実生活と制御可能な運転シナリオを生成することである。
動的で現実的なシミュレーション環境を提供することで、DrivingSphereは自律運転アルゴリズムの包括的なテストと検証を可能にする。
論文 参考訳(メタデータ) (2024-11-18T03:00:33Z) - SCOPE: A Synthetic Multi-Modal Dataset for Collective Perception Including Physical-Correct Weather Conditions [0.5026434955540995]
SCOPEは、現実的なカメラとLiDARモデル、パラメータ化および物理的に正確な気象シミュレーションを組み込んだ最初の合成マルチモーダルデータセットである。
データセットには、40以上のシナリオから17,600フレームが含まれており、最大24の協調エージェント、インフラセンサー、自転車や歩行者を含む受動的トラフィックが含まれている。
論文 参考訳(メタデータ) (2024-08-06T09:35:50Z) - SEVD: Synthetic Event-based Vision Dataset for Ego and Fixed Traffic Perception [22.114089372056238]
我々は、SEVD、第一種マルチビューエゴ、固定認識合成イベントベースデータセットを提案する。
SEVDは、都市、郊外、田園部、ハイウェイのシーンに、様々な種類の物体がある。
本研究では,最新のイベントベース (RED, RVT) とフレームベース (YOLOv8) を用いて,トラフィック検出タスクのデータセットを評価する。
論文 参考訳(メタデータ) (2024-04-12T20:40:12Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。