論文の概要: DVS-PedX: Synthetic-and-Real Event-Based Pedestrian Dataset
- arxiv url: http://arxiv.org/abs/2509.04117v1
- Date: Thu, 04 Sep 2025 11:30:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.142376
- Title: DVS-PedX: Synthetic-and-Real Event-Based Pedestrian Dataset
- Title(参考訳): DVS-PedX: イベントとリアルタイムのイベントベースの歩行者データセット
- Authors: Mustafa Sakhai, Kaung Sithu, Min Khant Soe Oke, Maciej Wielgosz,
- Abstract要約: Dynamic Vision Sensors (DVS)のようなイベントカメラは、フルフレームではなくマイクロタイムの明るさ変化を報告している。
DVS-PedXは、正常および悪天候下での歩行者検出と横断意図解析のために設計されたニューロモルフィックデータセットである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras like Dynamic Vision Sensors (DVS) report micro-timed brightness changes instead of full frames, offering low latency, high dynamic range, and motion robustness. DVS-PedX (Dynamic Vision Sensor Pedestrian eXploration) is a neuromorphic dataset designed for pedestrian detection and crossing-intention analysis in normal and adverse weather conditions across two complementary sources: (1) synthetic event streams generated in the CARLA simulator for controlled "approach-cross" scenes under varied weather and lighting; and (2) real-world JAAD dash-cam videos converted to event streams using the v2e tool, preserving natural behaviors and backgrounds. Each sequence includes paired RGB frames, per-frame DVS "event frames" (33 ms accumulations), and frame-level labels (crossing vs. not crossing). We also provide raw AEDAT 2.0/AEDAT 4.0 event files and AVI DVS video files and metadata for flexible re-processing. Baseline spiking neural networks (SNNs) using SpikingJelly illustrate dataset usability and reveal a sim-to-real gap, motivating domain adaptation and multimodal fusion. DVS-PedX aims to accelerate research in event-based pedestrian safety, intention prediction, and neuromorphic perception.
- Abstract(参考訳): Dynamic Vision Sensors (DVS)のようなイベントカメラは、フルフレームの代わりにマイクロタイムの明るさ変化を報告し、低レイテンシ、高ダイナミックレンジ、モーションロバスト性を提供する。
DVS-PedX (Dynamic Vision Sensor Pedestrian eXploration) は、通常および悪天候条件下での歩行者検出と横断意図解析のために設計されたニューロモルフィックデータセットである。
各シーケンスには、ペア化されたRGBフレーム、フレーム毎のDVS"イベントフレーム(33msの蓄積)、フレームレベルラベル(クロス対クロス)が含まれる。
また、生のAEDAT 2.0/AEDAT 4.0イベントファイル、AVI DVSビデオファイル、フレキシブルな再処理のためのメタデータも提供する。
SpikingJellyを使用したベースラインスパイクニューラルネットワーク(SNN)は、データセットのユーザビリティを説明し、sim-to-realギャップ、モチベーションドメイン適応、マルチモーダル融合を明らかにする。
DVS-PedXは、イベントベースの歩行者安全、意図予測、神経形知覚の研究を加速することを目的としている。
関連論文リスト
- Event-Based Video Frame Interpolation With Cross-Modal Asymmetric Bidirectional Motion Fields [39.214857326425204]
ビデオフレーム補間 (VFI) は連続的な入力フレーム間の中間映像フレームを生成することを目的としている。
クロスモーダルな非対称な双方向運動場推定を行うイベントベースVFIフレームワークを提案する。
提案手法は, 各種データセット上での最先端VFI法よりも高い性能向上を示す。
論文 参考訳(メタデータ) (2025-02-19T13:40:43Z) - SEVD: Synthetic Event-based Vision Dataset for Ego and Fixed Traffic Perception [22.114089372056238]
我々は、SEVD、第一種マルチビューエゴ、固定認識合成イベントベースデータセットを提案する。
SEVDは、都市、郊外、田園部、ハイウェイのシーンに、様々な種類の物体がある。
本研究では,最新のイベントベース (RED, RVT) とフレームベース (YOLOv8) を用いて,トラフィック検出タスクのデータセットを評価する。
論文 参考訳(メタデータ) (2024-04-12T20:40:12Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - V2CE: Video to Continuous Events Simulator [1.1009908861287052]
ダイナミック・ビジョン・センサ(DVS)の特性を考慮した複数視点からのストリーム変換のための新しい手法を提案する。
慎重に設計された一連のタイムスタンプ損失は、生成されたイベントボクセルの品質を大幅に向上させるのに役立つ。
また,イベント・ボクセルからのイベント・タイムスタンプを連続的に再現するための局所動的推論手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T06:06:53Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - A Unified Framework for Event-based Frame Interpolation with Ad-hoc Deblurring in the Wild [72.0226493284814]
本稿では,デブロリングアドホックを行うイベントベースフレームの統一フレームワークを提案する。
我々のネットワークは、フレーム上の従来の最先端の手法、単一画像のデブロアリング、および両者のジョイントタスクを一貫して上回ります。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - v2e: From Video Frames to Realistic DVS Events [16.562442770255032]
本稿では,高強度フレームからリアルな合成DVSイベントを生成するv2eツールボックスを提案する。
リアルなDVSイベントは、制御されていない照明条件のトレーニングネットワークで有用である。
論文 参考訳(メタデータ) (2020-06-13T21:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。