論文の概要: Geometric-Photometric Event-based 3D Gaussian Ray Tracing
- arxiv url: http://arxiv.org/abs/2512.18640v1
- Date: Sun, 21 Dec 2025 08:31:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.4331
- Title: Geometric-Photometric Event-based 3D Gaussian Ray Tracing
- Title(参考訳): 幾何学的測光イベントに基づく3次元ガウス線トレーシング
- Authors: Kai Kohyama, Yoshimitsu Aoki, Guillermo Gallego, Shintaro Shiba,
- Abstract要約: イベントカメラは、従来のフレームベースのカメラよりも時間分解能が高い。
イベントベースの3Dガウススプレイティングアプローチがスパースイベントの微細な時間的情報をどのように活用できるかは分かっていない。
本研究は,イベントベース3DGSにおける精度と時間分解能のトレードオフに対処する枠組みを提案する。
- 参考スコア(独自算出の注目度): 36.13207105469902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras offer a high temporal resolution over traditional frame-based cameras, which makes them suitable for motion and structure estimation. However, it has been unclear how event-based 3D Gaussian Splatting (3DGS) approaches could leverage fine-grained temporal information of sparse events. This work proposes a framework to address the trade-off between accuracy and temporal resolution in event-based 3DGS. Our key idea is to decouple the rendering into two branches: event-by-event geometry (depth) rendering and snapshot-based radiance (intensity) rendering, by using ray-tracing and the image of warped events. The extensive evaluation shows that our method achieves state-of-the-art performance on the real-world datasets and competitive performance on the synthetic dataset. Also, the proposed method works without prior information (e.g., pretrained image reconstruction models) or COLMAP-based initialization, is more flexible in the event selection number, and achieves sharp reconstruction on scene edges with fast training time. We hope that this work deepens our understanding of the sparse nature of events for 3D reconstruction. The code will be released.
- Abstract(参考訳): イベントカメラは、従来のフレームベースのカメラよりも時間分解能が高く、動きや構造推定に適している。
しかし、イベントベースの3Dガウススプラッティング(3DGS)アプローチがスパースイベントの微細な時間的情報をどのように活用できるかは分かっていない。
本研究は,イベントベース3DGSにおける精度と時間分解能のトレードオフに対処する枠組みを提案する。
私たちのキーとなるアイデアは、レンダリングを2つのブランチに分割することです: イベント・バイ・イベント・ジオメトリ(深度)レンダリングとスナップショットベースのラディアンス(強度)レンダリングです。
本手法は,実世界のデータセット上での最先端性能と,合成データセット上での競合性能を示す。
また,提案手法は事前情報(例えば事前学習画像再構成モデル)やCOLMAPに基づく初期化を使わずに動作し,イベント選択数では柔軟であり,高速なトレーニング時間でシーンエッジのシャープな再構築を実現する。
この研究により、3D再構築のためのイベントのスパースな性質の理解が深まることを期待します。
コードはリリースされます。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [87.1077910795879]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Elite-EvGS: Learning Event-based 3D Gaussian Splatting by Distilling Event-to-Video Priors [8.93657924734248]
イベントカメラは、固定フレームではなく、非同期でスパースなイベントストリームを出力するバイオインスパイアされたセンサーである。
イベントベースの新しい3DGSフレームワークであるElite-EvGSを提案する。
私たちのキーとなるアイデアは、既成のイベント・ツー・ビデオ(E2V)モデルから事前の知識を抽出して、イベントから3Dシーンを効果的に再構築することです。
論文 参考訳(メタデータ) (2024-09-20T10:47:52Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - EvGGS: A Collaborative Learning Framework for Event-based Generalizable Gaussian Splatting [5.160735014509357]
本稿では,EvGGSと呼ばれるイベントベース汎用3D再構成フレームワークを提案する。
フィードフォワード方式でイベント入力のみから3Dガウスとしてシーンを再構築する。
提案手法は, 再現性, 深度・強度予測において, 良好な速度で全てのベースラインより優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-05-23T18:10:26Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Exploring Event-based Human Pose Estimation with 3D Event Representations [26.34100847541989]
我々は、Rasterized Event Point Cloud(Ras EPC)とDecoupled Event Voxel(DEV)の2つの3Dイベント表現を紹介した。
Ras EPCは、簡潔な時間スライス内のイベントを同じ位置で集約し、それらの3D属性を統計情報と共に保存し、メモリと計算要求を大幅に削減する。
提案手法は,DHP19公開データセット,MMHPSDデータセット,EV-3DPWデータセットで検証し,誘導駆動シーンデータセットEV-JAADと屋外収集車両によるさらなる定性検証を行った。
論文 参考訳(メタデータ) (2023-11-08T10:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。