論文の概要: EventTracer: Fast Path Tracing-based Event Stream Rendering
- arxiv url: http://arxiv.org/abs/2508.18071v2
- Date: Tue, 02 Sep 2025 16:05:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:52.690933
- Title: EventTracer: Fast Path Tracing-based Event Stream Rendering
- Title(参考訳): EventTracer: 高速パストレースベースのイベントストリームレンダリング
- Authors: Zhenyang Li, Xiaoyang Bai, Jinfan Lu, Pengfei Shen, Edmund Y. Lam, Yifan Peng,
- Abstract要約: EventTracerは、複雑な3Dシーンからの高忠実度イベントシーケンスをシミュレートするパストレースベースのレンダリングパイプラインである。
EventTracerがより優れたシーンの詳細をキャプチャし、実際のイベントデータと他のイベントシミュレータとの類似性を示す2つの下流タスクを示す。
- 参考スコア(独自算出の注目度): 22.899799024836586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulating event streams from 3D scenes has become a common practice in event-based vision research, as it meets the demand for large-scale, high temporal frequency data without setting up expensive hardware devices or undertaking extensive data collections. Yet existing methods in this direction typically work with noiseless RGB frames that are costly to render, and therefore they can only achieve a temporal resolution equivalent to 100-300 FPS, far lower than that of real-world event data. In this work, we propose EventTracer, a path tracing-based rendering pipeline that simulates high-fidelity event sequences from complex 3D scenes in an efficient and physics-aware manner. Specifically, we speed up the rendering process via low sample-per-pixel (SPP) path tracing, and train a lightweight event spiking network to denoise the resulting RGB videos into realistic event sequences. To capture the physical properties of event streams, the network is equipped with a bipolar leaky integrate-and-fired (BiLIF) spiking unit and trained with a bidirectional earth mover distance (EMD) loss. Our EventTracer pipeline runs at a speed of about 4 minutes per second of 720p video, and it inherits the merit of accurate spatiotemporal modeling from its path tracing backbone. We show in two downstream tasks that EventTracer captures better scene details and demonstrates a greater similarity to real-world event data than other event simulators, which establishes it as a promising tool for creating large-scale event-RGB datasets at a low cost, narrowing the sim-to-real gap in event-based vision, and boosting various application scenarios such as robotics, autonomous driving, and VRAR.
- Abstract(参考訳): 3Dシーンからのイベントストリームのシミュレーションは、高価なハードウェアデバイスをセットアップしたり、広範囲なデータ収集を行うことなく、大規模で高テンポラルな周波数データの需要を満たすため、イベントベースの視覚研究において一般的なプラクティスとなっている。
しかし、この方向の既存の手法は通常、レンダリングにコストがかかるノイズレスRGBフレームで動作するため、実際のイベントデータよりもはるかに低い100-300 FPS程度の時間分解能しか達成できない。
本研究では,複雑な3Dシーンからの高忠実度イベントシーケンスを効率的かつ物理的にシミュレートするパストレースベースのレンダリングパイプラインであるEventTracerを提案する。
具体的には、低サンプリング/ピクセル(SPP)パストレースによるレンダリングプロセスを高速化し、軽量なイベントスパイクネットワークをトレーニングして、結果のRGBビデオをリアルなイベントシーケンスに分解する。
イベントストリームの物理的特性を捉えるため、ネットワークはバイポーラ漏れのインテリジェンス・アンド・ファイアド(BiLIF)スパイキングユニットを備え、双方向の地球移動距離(EMD)損失を訓練している。
EventTracerパイプラインは720pビデオの秒速約4分で動作し、パストレースバックボーンから正確な時空間モデリングのメリットを継承します。
EventTracerがより優れたシーンの詳細をキャプチャし、実際のイベントデータと他のイベントシミュレータとの類似性を示す2つのダウンストリームタスクにおいて、大規模なイベントRGBデータセットを低コストで作成するための有望なツールとして確立し、イベントベースのビジョンにおけるシミュレートと現実のギャップを狭め、ロボティクス、自律運転、VRARといったさまざまなアプリケーションシナリオを強化した。
関連論文リスト
- GS2E: Gaussian Splatting is an Effective Data Generator for Event Stream Generation [32.13436507983477]
高忠実度イベントビジョンタスクのための大規模合成イベントデータセットであるGS2E(Gaussian Splatting to Event)を紹介する。
イベントベース3次元再構成の結果は、GS2Eの優れた一般化能力と実用的価値を示している。
論文 参考訳(メタデータ) (2025-05-21T09:15:42Z) - Exploring Event-based Human Pose Estimation with 3D Event Representations [26.34100847541989]
我々は、Rasterized Event Point Cloud(Ras EPC)とDecoupled Event Voxel(DEV)の2つの3Dイベント表現を紹介した。
Ras EPCは、簡潔な時間スライス内のイベントを同じ位置で集約し、それらの3D属性を統計情報と共に保存し、メモリと計算要求を大幅に削減する。
提案手法は,DHP19公開データセット,MMHPSDデータセット,EV-3DPWデータセットで検証し,誘導駆動シーンデータセットEV-JAADと屋外収集車両によるさらなる定性検証を行った。
論文 参考訳(メタデータ) (2023-11-08T10:45:09Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z) - 3D-FlowNet: Event-based optical flow estimation with 3D representation [2.062593640149623]
イベントベースのカメラは、高速モーション検出などの重要なタスクのためにフレームベースのカメラ制限を克服することができる。
ディープニューラルネットワークは、非同期で離散的なイベントデータを扱うようには適していない。
本稿では,3次元入力表現を処理し,光フロー推定を出力できる新しいネットワークアーキテクチャである3D-FlowNetを提案する。
論文 参考訳(メタデータ) (2022-01-28T17:28:15Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。