論文の概要: E-4DGS: High-Fidelity Dynamic Reconstruction from the Multi-view Event Cameras
- arxiv url: http://arxiv.org/abs/2508.09912v1
- Date: Wed, 13 Aug 2025 16:09:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.952629
- Title: E-4DGS: High-Fidelity Dynamic Reconstruction from the Multi-view Event Cameras
- Title(参考訳): E-4DGS:マルチビューイベントカメラからの高忠実度ダイナミックリコンストラクション
- Authors: Chaoran Feng, Zhenyu Tang, Wangbo Yu, Yatian Pang, Yian Zhao, Jianbin Zhao, Li Yuan, Yonghong Tian,
- Abstract要約: イベントカメラは低消費電力、高時間分解能、高ダイナミックレンジの利点を提供する。
E-4DGSは,マルチビューイベントストリームからの新たなビュー合成のための,最初のイベント駆動型動的ガウススプラッティング手法である。
対象物を取り囲む6つの移動イベントカメラを360度構成した合成多視点カメラを設計する。
- 参考スコア(独自算出の注目度): 28.94574068153127
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Novel view synthesis and 4D reconstruction techniques predominantly rely on RGB cameras, thereby inheriting inherent limitations such as the dependence on adequate lighting, susceptibility to motion blur, and a limited dynamic range. Event cameras, offering advantages of low power, high temporal resolution and high dynamic range, have brought a new perspective to addressing the scene reconstruction challenges in high-speed motion and low-light scenes. To this end, we propose E-4DGS, the first event-driven dynamic Gaussian Splatting approach, for novel view synthesis from multi-view event streams with fast-moving cameras. Specifically, we introduce an event-based initialization scheme to ensure stable training and propose event-adaptive slicing splatting for time-aware reconstruction. Additionally, we employ intensity importance pruning to eliminate floating artifacts and enhance 3D consistency, while incorporating an adaptive contrast threshold for more precise optimization. We design a synthetic multi-view camera setup with six moving event cameras surrounding the object in a 360-degree configuration and provide a benchmark multi-view event stream dataset that captures challenging motion scenarios. Our approach outperforms both event-only and event-RGB fusion baselines and paves the way for the exploration of multi-view event-based reconstruction as a novel approach for rapid scene capture.
- Abstract(参考訳): 新たなビュー合成と4D再構成技術は主にRGBカメラに依存しており、適切な照明への依存、動きのぼかしへの感受性、ダイナミックレンジの制限といった固有の制限を継承している。
低消費電力、高時間分解能、高ダイナミックレンジの利点を提供するイベントカメラは、高速モーションおよび低照度シーンにおけるシーン再構築の課題に対処するための新たな視点をもたらした。
この目的のために,高速移動カメラを用いたマルチビューイベントストリームからの新たなビュー合成のための,イベント駆動型動的ガウススプラッティング手法であるE-4DGSを提案する。
具体的には、安定したトレーニングを確保するためのイベントベース初期化手法を導入し、時刻対応型再構成のためのイベント適応スライススティングを提案する。
さらに,浮動小数点の除去と3次元の整合性向上のために,より正確な最適化のために適応コントラスト閾値を組み込む。
我々は、360度構成で物体を囲む6つの動くイベントカメラを備えた合成多視点カメラを設計し、挑戦的な動きシナリオをキャプチャするベンチマーク多視点イベントストリームデータセットを提供する。
本手法は, イベントのみとイベントRGBの融合ベースラインに優れ, 高速シーンキャプチャのための新しいアプローチとして, 多視点イベントベース再構築の道を開く。
関連論文リスト
- EventSplat: 3D Gaussian Splatting from Moving Event Cameras for Real-time Rendering [7.392798832833857]
イベントカメラは例外的な時間分解能と高いダイナミックレンジを提供する。
ガウススプラッティングによる新しいビュー合成におけるイベントカメラデータの利用法を提案する。
論文 参考訳(メタデータ) (2024-12-10T08:23:58Z) - Dynamic EventNeRF: Reconstructing General Dynamic Scenes from Multi-view RGB and Event Streams [69.65147723239153]
動的シーンのボリューム再構成はコンピュータビジョンにおいて重要な問題である。
照明が悪く、動きが速い場合には特に困難である。
本稿では,スパースなマルチビューイベントストリームとスパースなRGBフレームからシーンを時間的に再構築する手法を提案する。
論文 参考訳(メタデータ) (2024-12-09T18:56:18Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - E-3DGS: Gaussian Splatting with Exposure and Motion Events [29.042018288378447]
E-3DGSは、イベントベースの3D再構築のための新しいベンチマークを、困難な状況下で堅牢なパフォーマンスで設定する。
EME-3Dは、露光イベント、モーションイベント、カメラキャリブレーションパラメータ、スパースポイントクラウドを備えた実世界の3Dデータセットである。
論文 参考訳(メタデータ) (2024-10-22T13:17:20Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [72.60992807941885]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Event-based Continuous Color Video Decompression from Single Frames [36.4263932473053]
本研究では,静止RGB画像とイベントカメラストリームから連続映像を生成する新しい手法であるContinuityCamを提案する。
提案手法は、連続した長距離動きモデリングとニューラル合成モデルを組み合わせることで、イベント内の任意のタイミングでフレーム予測を可能にする。
論文 参考訳(メタデータ) (2023-11-30T18:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。