論文の概要: EAG3R: Event-Augmented 3D Geometry Estimation for Dynamic and Extreme-Lighting Scenes
- arxiv url: http://arxiv.org/abs/2512.00771v1
- Date: Sun, 30 Nov 2025 08:05:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.411682
- Title: EAG3R: Event-Augmented 3D Geometry Estimation for Dynamic and Extreme-Lighting Scenes
- Title(参考訳): EAG3R:動的および極端照明シーンのイベント拡張3次元形状推定
- Authors: Xiaoshan Wu, Yifei Yu, Xiaoyang Lyu, Yihua Huang, Bo Wang, Baoheng Zhang, Zhongrui Wang, Xiaojuan Qi,
- Abstract要約: E3Rは、非同期イベントストリームによるポイントマップベースの再構築を強化する、新しい幾何推定フレームワークである。
EAG3Rは、モノクロ深度推定、カメラポーズトラッキング、動的再構成タスクにおいて、最先端のRGBのみのベースラインを著しく上回る。
- 参考スコア(独自算出の注目度): 31.16499311793949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust 3D geometry estimation from videos is critical for applications such as autonomous navigation, SLAM, and 3D scene reconstruction. Recent methods like DUSt3R demonstrate that regressing dense pointmaps from image pairs enables accurate and efficient pose-free reconstruction. However, existing RGB-only approaches struggle under real-world conditions involving dynamic objects and extreme illumination, due to the inherent limitations of conventional cameras. In this paper, we propose EAG3R, a novel geometry estimation framework that augments pointmap-based reconstruction with asynchronous event streams. Built upon the MonST3R backbone, EAG3R introduces two key innovations: (1) a retinex-inspired image enhancement module and a lightweight event adapter with SNR-aware fusion mechanism that adaptively combines RGB and event features based on local reliability; and (2) a novel event-based photometric consistency loss that reinforces spatiotemporal coherence during global optimization. Our method enables robust geometry estimation in challenging dynamic low-light scenes without requiring retraining on night-time data. Extensive experiments demonstrate that EAG3R significantly outperforms state-of-the-art RGB-only baselines across monocular depth estimation, camera pose tracking, and dynamic reconstruction tasks.
- Abstract(参考訳): ビデオからのロバストな3D幾何推定は、自律ナビゲーション、SLAM、および3Dシーン再構成のようなアプリケーションにとって重要である。
DUSt3Rのような最近の手法は、画像ペアから高密度な点マップを退避させることで、正確で効率的なポーズなしの再構成を可能にする。
しかし、既存のRGBのみのアプローチは、従来のカメラ固有の制限のため、ダイナミックオブジェクトや極端な照明を含む現実的な条件下では困難である。
本稿では,非同期イベントストリームによるポイントマップに基づく再構成を向上する新しい幾何推定フレームワークであるEAG3Rを提案する。
MonST3Rのバックボーン上に構築されたEAG3Rは,(1)レチネックスにインスパイアされた画像強調モジュールと,(2)局所的な信頼性に基づいてRGBとイベント特徴を適応的に結合するSNR対応融合機構を備えた軽量イベントアダプタ,(2)グローバル最適化時の時空間コヒーレンスを補強する新しいイベントベースの測光整合損失という,2つの重要なイノベーションを導入している。
本手法は,夜間データの再学習を必要とせず,ダイナミックな低照度シーンにおけるロバストな幾何推定を可能にする。
大規模な実験により、EAG3Rはモノクロ深度推定、カメラポーズ追跡、動的再構成タスクで最先端のRGBのみのベースラインを著しく上回ることが示された。
関連論文リスト
- Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - Surf3R: Rapid Surface Reconstruction from Sparse RGB Views in Seconds [34.38496869014632]
Surf3Rは、カメラのポーズを見積もることなく、スパースビューから3D表面を再構築するエンドツーエンドのフィードフォワードアプローチである。
提案手法では,複数参照ビューが共同で再構成プロセスをガイドするマルチブランチ・マルチビューデコーディングアーキテクチャを採用している。
論文 参考訳(メタデータ) (2025-08-06T14:53:42Z) - GTR: Gaussian Splatting Tracking and Reconstruction of Unknown Objects Based on Appearance and Geometric Complexity [49.31257173003408]
モノクローナルRGBDビデオからの6-DoFオブジェクト追跡と高品質な3D再構成のための新しい手法を提案する。
提案手法は, 高忠実度オブジェクトメッシュを復元する強力な能力を示し, オープンワールド環境における単一センサ3D再構成のための新しい標準を策定する。
論文 参考訳(メタデータ) (2025-05-17T08:46:29Z) - A Survey of 3D Reconstruction with Event Cameras [16.103940503726022]
イベントカメラはスパースで時間的に密度の高いデータストリームを生成し、堅牢で正確な3D再構成を可能にする。
これらの能力は、自律運転、ロボティクス、空中ナビゲーション、没入型バーチャルリアリティーなど、さまざまな分野にまたがるトランスフォーメーションアプリケーションに対して、大きな保証を提供する。
本調査は, イベント駆動型3D再構築における最先端技術に向けた, 明確かつモチベーションの高いロードマップを提供する。
論文 参考訳(メタデータ) (2025-05-13T11:04:04Z) - D$^2$USt3R: Enhancing 3D Reconstruction for Dynamic Scenes [54.886845755635754]
本研究は動的シーンにおける3次元再構成の課題に対処し,物体の動きが従来の3次元ポイントマップ回帰法の品質を劣化させる。
空間的側面と時間的側面の両方を明示的に組み込むことにより,提案した点マップに対する3次元密度対応のカプセル化に成功した。
論文 参考訳(メタデータ) (2025-04-08T17:59:50Z) - SplatPose: Geometry-Aware 6-DoF Pose Estimation from Single RGB Image via 3D Gaussian Splatting [3.6688867031495223]
SplatPoseは3次元ガウススティング(3DGS)を2分岐ニューラルアーキテクチャで合成し,高精度なポーズ推定を実現する新しいフレームワークである。
3つのベンチマークデータセットの実験では、SplatPoseが最先端の6-DoFを1つのRGB設定で推定精度で達成していることが示されている。
論文 参考訳(メタデータ) (2025-03-07T06:40:06Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。