論文の概要: A Survey of 3D Reconstruction with Event Cameras: From Event-based Geometry to Neural 3D Rendering
- arxiv url: http://arxiv.org/abs/2505.08438v1
- Date: Tue, 13 May 2025 11:04:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.528816
- Title: A Survey of 3D Reconstruction with Event Cameras: From Event-based Geometry to Neural 3D Rendering
- Title(参考訳): イベントカメラを用いた3次元再構成に関するサーベイ:イベントベース形状からニューラル3次元レンダリングへ
- Authors: Chuanzhi Xu, Haoxian Zhou, Langyi Chen, Haodong Chen, Ying Zhou, Vera Chung, Qiang Qu,
- Abstract要約: イベントカメラは、ピクセルごとの明るさ変化を非同期にキャプチャする能力のために、3D再構成のための有望なセンサーとして登場した。
従来のフレームベースのカメラとは異なり、スパースで時間的に豊かなデータストリームを生成し、より正確な3D再構成を可能にする。
本調査は,イベント駆動型3次元再構築における総合的なリファレンスと今後の展開のロードマップとして機能することを目的としている。
- 参考スコア(独自算出の注目度): 12.287975720585802
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Event cameras have emerged as promising sensors for 3D reconstruction due to their ability to capture per-pixel brightness changes asynchronously. Unlike conventional frame-based cameras, they produce sparse and temporally rich data streams, which enable more accurate 3D reconstruction and open up the possibility of performing reconstruction in extreme environments such as high-speed motion, low light, or high dynamic range scenes. In this survey, we provide the first comprehensive review focused exclusively on 3D reconstruction using event cameras. The survey categorises existing works into three major types based on input modality - stereo, monocular, and multimodal systems, and further classifies them by reconstruction approach, including geometry-based, deep learning-based, and recent neural rendering techniques such as Neural Radiance Fields and 3D Gaussian Splatting. Methods with a similar research focus were organised chronologically into the most subdivided groups. We also summarise public datasets relevant to event-based 3D reconstruction. Finally, we highlight current research limitations in data availability, evaluation, representation, and dynamic scene handling, and outline promising future research directions. This survey aims to serve as a comprehensive reference and a roadmap for future developments in event-driven 3D reconstruction.
- Abstract(参考訳): イベントカメラは、ピクセルごとの明るさ変化を非同期にキャプチャする能力のために、3D再構成のための有望なセンサーとして登場した。
従来のフレームベースのカメラとは異なり、スパースで時間的に豊かなデータストリームを生成し、より正確な3D再構成を可能にし、高速な動きや低照度、高ダイナミックレンジのシーンなどの極端な環境で再構成を行う可能性を開放する。
本調査では,イベントカメラを用いた3次元再構成に焦点を当てた総合的なレビューを行った。
この調査は、既存の研究を入力モダリティ(ステレオ、モノクラー、マルチモーダルシステム)に基づく3つの主要なタイプに分類し、幾何ベース、ディープラーニングベース、ニューラルレイディアンスフィールドや3Dガウススプラッティングのような最近のニューラルネットワーク技術を含む再構築アプローチによってさらに分類する。
同様の研究に焦点を当てた手法は、時系列的に最も細分化されたグループに編成された。
また、イベントベースの3D再構成に関連する公開データセットを要約する。
最後に、データの可用性、評価、表現、動的シーンハンドリングにおける現在の研究の限界を強調し、将来的な研究の方向性を概説する。
本調査は,イベント駆動型3次元再構築における総合的なリファレンスと今後の展開のロードマップとして機能することを目的としている。
関連論文リスト
- A Survey on Event-driven 3D Reconstruction: Development under Different Categories [4.459934616871806]
イベントカメラは、高時間分解能、低レイテンシ、高ダイナミックレンジのため、3次元再構成に注目が集まっている。
本稿では,ステレオ,モノクラー,マルチモーダルシステムを含むイベント駆動型3D再構成手法の総合的なレビューを行う。
ニューラルラディアンス場やイベントデータを用いた3次元ガウススプラッティングといった新興トレンドも取り上げている。
論文 参考訳(メタデータ) (2025-03-25T15:16:53Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D reconstruction from spherical images: A review of techniques,
applications, and prospects [2.6432771146480283]
3次元再構成は、現代のフォトグラムシステムにおいてますます重要な役割を担っている。
プロ用および消費者向けの球面カメラの急速な進化と広範囲な利用により、球面画像は都市と屋内のシーンの3Dモデリングに大きな可能性を示している。
本研究は,データ取得,特徴検出とマッチング,画像配向,密マッチングの観点から,球面画像の3次元再構成技術の現状を詳細に調査する。
論文 参考訳(メタデータ) (2023-02-09T08:45:27Z) - State of the Art in Dense Monocular Non-Rigid 3D Reconstruction [100.9586977875698]
モノクル2D画像から変形可能なシーン(または非剛体)の3D再構成は、コンピュータビジョンとグラフィックスの長年、活発に研究されてきた領域である。
本研究は,モノクラー映像やモノクラービューの集合から,様々な変形可能な物体や複合シーンを高密度に非剛性で再現するための最先端の手法に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-27T17:59:53Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。