論文の概要: A Survey of 3D Reconstruction with Event Cameras
- arxiv url: http://arxiv.org/abs/2505.08438v2
- Date: Mon, 02 Jun 2025 16:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 16:22:43.367334
- Title: A Survey of 3D Reconstruction with Event Cameras
- Title(参考訳): イベントカメラを用いた3次元再構成の検討
- Authors: Chuanzhi Xu, Haoxian Zhou, Langyi Chen, Haodong Chen, Ying Zhou, Vera Chung, Qiang Qu, Weidong Cai,
- Abstract要約: イベントカメラはスパースで時間的に密度の高いデータストリームを生成し、堅牢で正確な3D再構成を可能にする。
これらの能力は、自律運転、ロボティクス、空中ナビゲーション、没入型バーチャルリアリティーなど、さまざまな分野にまたがるトランスフォーメーションアプリケーションに対して、大きな保証を提供する。
本調査は, イベント駆動型3D再構築における最先端技術に向けた, 明確かつモチベーションの高いロードマップを提供する。
- 参考スコア(独自算出の注目度): 16.103940503726022
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Event cameras are rapidly emerging as powerful vision sensors for 3D reconstruction, uniquely capable of asynchronously capturing per-pixel brightness changes. Compared to traditional frame-based cameras, event cameras produce sparse yet temporally dense data streams, enabling robust and accurate 3D reconstruction even under challenging conditions such as high-speed motion, low illumination, and extreme dynamic range scenarios. These capabilities offer substantial promise for transformative applications across various fields, including autonomous driving, robotics, aerial navigation, and immersive virtual reality. In this survey, we present the first comprehensive review exclusively dedicated to event-based 3D reconstruction. Existing approaches are systematically categorised based on input modality into stereo, monocular, and multimodal systems, and further classified according to reconstruction methodologies, including geometry-based techniques, deep learning approaches, and neural rendering techniques such as Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS). Within each category, methods are chronologically organised to highlight the evolution of key concepts and advancements. Furthermore, we provide a detailed summary of publicly available datasets specifically suited to event-based reconstruction tasks. Finally, we discuss significant open challenges in dataset availability, standardised evaluation, effective representation, and dynamic scene reconstruction, outlining insightful directions for future research. This survey aims to serve as an essential reference and provides a clear and motivating roadmap toward advancing the state of the art in event-driven 3D reconstruction.
- Abstract(参考訳): イベントカメラは、3D再構成のための強力な視覚センサーとして急速に登場し、一意にピクセルごとの明るさ変化を非同期に捉えることができる。
従来のフレームベースのカメラと比較すると、イベントカメラはスパースで時間的に密集したデータストリームを生成し、高速モーションや低照度、極端なダイナミックレンジシナリオといった困難な条件下でも、堅牢で正確な3D再構成を可能にする。
これらの能力は、自律運転、ロボティクス、空中ナビゲーション、没入型バーチャルリアリティーなど、さまざまな分野にまたがるトランスフォーメーションアプリケーションに対して、大きな保証を提供する。
本調査では,イベントベースの3D再構成専用の総合的なレビューを行う。
既存のアプローチはステレオ・モノクラー・マルチモーダルシステムへの入力モダリティに基づいて体系的に分類され、幾何に基づく手法、深層学習手法、ニューラルレージアン・フィールド(NeRF)や3Dガウス・スプティング(3DGS)といったニューラルレンダリング技術を含む再構築手法によって分類される。
各カテゴリでは、重要な概念と進歩の進化を強調するために、時系列的に手法が編成される。
さらに、イベントベースの再構築タスクに特化して公開されているデータセットの詳細な概要を述べる。
最後に、データセットの可用性、標準化された評価、効果的な表現、動的シーン再構築における重要なオープン課題について論じ、今後の研究に向けた洞察に富んだ方向性を概説する。
本調査は, イベント駆動型3D再構築の最先端に向けた, 明確かつモチベーションの高いロードマップを提供する。
関連論文リスト
- A Survey on Event-driven 3D Reconstruction: Development under Different Categories [4.459934616871806]
イベントカメラは、高時間分解能、低レイテンシ、高ダイナミックレンジのため、3次元再構成に注目が集まっている。
本稿では,ステレオ,モノクラー,マルチモーダルシステムを含むイベント駆動型3D再構成手法の総合的なレビューを行う。
ニューラルラディアンス場やイベントデータを用いた3次元ガウススプラッティングといった新興トレンドも取り上げている。
論文 参考訳(メタデータ) (2025-03-25T15:16:53Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D reconstruction from spherical images: A review of techniques,
applications, and prospects [2.6432771146480283]
3次元再構成は、現代のフォトグラムシステムにおいてますます重要な役割を担っている。
プロ用および消費者向けの球面カメラの急速な進化と広範囲な利用により、球面画像は都市と屋内のシーンの3Dモデリングに大きな可能性を示している。
本研究は,データ取得,特徴検出とマッチング,画像配向,密マッチングの観点から,球面画像の3次元再構成技術の現状を詳細に調査する。
論文 参考訳(メタデータ) (2023-02-09T08:45:27Z) - State of the Art in Dense Monocular Non-Rigid 3D Reconstruction [100.9586977875698]
モノクル2D画像から変形可能なシーン(または非剛体)の3D再構成は、コンピュータビジョンとグラフィックスの長年、活発に研究されてきた領域である。
本研究は,モノクラー映像やモノクラービューの集合から,様々な変形可能な物体や複合シーンを高密度に非剛性で再現するための最先端の手法に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-27T17:59:53Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。