論文の概要: E2EGS: Event-to-Edge Gaussian Splatting for Pose-Free 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2603.14684v1
- Date: Mon, 16 Mar 2026 00:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.965554
- Title: E2EGS: Event-to-Edge Gaussian Splatting for Pose-Free 3D Reconstruction
- Title(参考訳): E2EGS:pose-free 3Dリコンストラクションのためのイベント・ツー・エッジガウス・スプラッティング
- Authors: Yunsoo Kim, Changki Sung, Dasol Hong, Hyun Myung,
- Abstract要約: E2EGSはイベントストリームのみで動作するポーズフリーフレームワークである。
我々は、エッジと非エッジ領域の時間重み付け特性を際立たせる。
E2EGSは、より優れた再構成品質と軌道精度を実現する。
- 参考スコア(独自算出の注目度): 16.506055417458153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of neural radiance fields (NeRF) and 3D Gaussian splatting (3DGS) has advanced novel view synthesis (NVS). These methods, however, require high-quality RGB inputs and accurate corresponding poses, limiting robustness under real-world conditions such as fast camera motion or adverse lighting. Event cameras, which capture brightness changes at each pixel with high temporal resolution and wide dynamic range, enable precise sensing of dynamic scenes and offer a promising solution. However, existing event-based NVS methods either assume known poses or rely on depth estimation models that are bounded by their initial observations, failing to generalize as the camera traverses previously unseen regions. We present E2EGS, a pose-free framework operating solely on event streams. Our key insight is that edge information provides rich structural cues essential for accurate trajectory estimation and high-quality NVS. To extract edges from noisy event streams, we exploit the distinct spatio-temporal characteristics of edges and non-edge regions. The event camera's movement induces consistent events along edges, while non-edge regions produce sparse noise. We leverage this through a patch-based temporal coherence analysis that measures local variance to extract edges while robustly suppressing noise. The extracted edges guide structure-aware Gaussian initialization and enable edge-weighted losses throughout initialization, tracking, and bundle adjustment. Extensive experiments on both synthetic and real datasets demonstrate that E2EGS achieves superior reconstruction quality and trajectory accuracy, establishing a fully pose-free paradigm for event-based 3D reconstruction.
- Abstract(参考訳): 神経放射場(NeRF)と3Dガウススプラッティング(3DGS)の出現は、高度な新規なビュー合成(NVS)をもたらす。
しかし、これらの手法は高品質なRGB入力と正確な対応ポーズを必要とし、高速カメラモーションや低照度照明のような現実の条件下では頑丈さを制限している。
イベントカメラは、各ピクセルの明るさ変化を高時間分解能と広いダイナミックレンジで捉え、ダイナミックシーンの正確なセンシングを可能にし、期待できる解決策を提供する。
しかし、既存のイベントベースのNVS手法では、既知のポーズを仮定するか、初期観測によって境界づけられた深度推定モデルに依存するかのいずれかであり、カメラがそれまで目に見えない領域を横切ると一般化することができない。
E2EGSはイベントストリームのみで動作するポーズフリーフレームワークである。
我々の重要な洞察は、エッジ情報は正確な軌道推定と高品質なNVSに不可欠な豊富な構造的手がかりを提供するということである。
ノイズの多いイベントストリームからエッジを抽出するために,エッジと非エッジ領域の時空間特性を区別する。
イベントカメラの動きはエッジに沿って一貫したイベントを引き起こし、非エッジ領域はスパースノイズを発生させる。
我々はこれをパッチベースの時間的コヒーレンス解析によって利用し、雑音を頑健に抑制しつつ、エッジを抽出するために局所的な分散を測定する。
抽出されたエッジは、構造を意識したガウスの初期化をガイドし、初期化、追跡、バンドル調整を通じてエッジ重み付き損失を可能にする。
合成データと実データの両方に対する大規模な実験により、E2EGSはより優れた再構成品質と軌道精度を実現し、イベントベースの3D再構成のための完全なポーズなしパラダイムを確立した。
関連論文リスト
- EVolSplat4D: Efficient Volume-based Gaussian Splatting for 4D Urban Scene Synthesis [43.898895514609286]
EvolSplat4Dは、ボリュームベースとピクセルベースのガウス予測を統合することで、既存のピクセル単位のパラダイムを超えたフィードフォワードフレームワークである。
EvolSplat4Dは静的環境と動的環境の両方を高い精度と一貫性で再構成し、シーンごとの最適化と最先端のフィードフォワードベースラインの両方に優れることを示す。
論文 参考訳(メタデータ) (2026-01-22T13:39:29Z) - EAG3R: Event-Augmented 3D Geometry Estimation for Dynamic and Extreme-Lighting Scenes [31.16499311793949]
E3Rは、非同期イベントストリームによるポイントマップベースの再構築を強化する、新しい幾何推定フレームワークである。
EAG3Rは、モノクロ深度推定、カメラポーズトラッキング、動的再構成タスクにおいて、最先端のRGBのみのベースラインを著しく上回る。
論文 参考訳(メタデータ) (2025-11-30T08:05:28Z) - DeblurSplat: SfM-free 3D Gaussian Splatting with Event Camera for Robust Deblurring [50.21760380168387]
DeSplat と呼ばれるイベントカメラによる3次元ガウス分割法を初めて提案する。
我々は高密度ステレオモジュール(DUSt3R)の事前訓練機能を利用して、ぼやけた画像から正確な初期点雲を直接取得する。
論文 参考訳(メタデータ) (2025-09-23T11:21:54Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。