論文の概要: E-3DGS: Event-Based Novel View Rendering of Large-Scale Scenes Using 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2502.10827v1
- Date: Sat, 15 Feb 2025 15:04:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:16.389288
- Title: E-3DGS: Event-Based Novel View Rendering of Large-Scale Scenes Using 3D Gaussian Splatting
- Title(参考訳): E-3DGS:3次元ガウススプレイティングによる大規模シーンのイベントベース新しいビューレンダリング
- Authors: Sohaib Zahid, Viktor Rudnev, Eddy Ilg, Vladislav Golyanik,
- Abstract要約: イベントベース新規ビュー合成のための3Dガウシアンについて紹介する。
本手法は,視覚的品質の高い大規模・非有界なシーンを再構成する。
この設定に適した、最初のリアルおよび合成イベントデータセットをコントリビュートします。
- 参考スコア(独自算出の注目度): 23.905254854888863
- License:
- Abstract: Novel view synthesis techniques predominantly utilize RGB cameras, inheriting their limitations such as the need for sufficient lighting, susceptibility to motion blur, and restricted dynamic range. In contrast, event cameras are significantly more resilient to these limitations but have been less explored in this domain, particularly in large-scale settings. Current methodologies primarily focus on front-facing or object-oriented (360-degree view) scenarios. For the first time, we introduce 3D Gaussians for event-based novel view synthesis. Our method reconstructs large and unbounded scenes with high visual quality. We contribute the first real and synthetic event datasets tailored for this setting. Our method demonstrates superior novel view synthesis and consistently outperforms the baseline EventNeRF by a margin of 11-25% in PSNR (dB) while being orders of magnitude faster in reconstruction and rendering.
- Abstract(参考訳): 新しいビュー合成技術は主にRGBカメラを使用し、十分な照明の必要性、動きのぼかしへの感受性、制限されたダイナミックレンジなどの制限を継承する。
対照的に、イベントカメラはこれらの制限に対して非常に耐性があるが、この領域では、特に大規模な設定では、あまり調査されていない。
現在の方法論は主に、正面またはオブジェクト指向(360度ビュー)のシナリオに焦点を当てています。
イベントベースノベルビュー合成のための3Dガウシアンを初めて紹介する。
本手法は,視覚的品質の高い大規模・非有界なシーンを再構成する。
この設定に適した、最初のリアルおよび合成イベントデータセットをコントリビュートします。
提案手法はより優れた新規なビュー合成を示し,PSNR(dB)の11-25%のマージンでベースラインEventNeRFを一貫して上回り,再現およびレンダリングにおいて桁違いに高速である。
関連論文リスト
- E-3DGS: Gaussian Splatting with Exposure and Motion Events [29.042018288378447]
イベントを動作と露出に分割するイベントベースの新しいアプローチであるE-3DGSを提案する。
露光イベントと3DGSの新たな統合を導入し,明示的なシーン表現を高品質に再現する。
提案手法は,NeRF法よりもコスト効率が高く,イベントベースのNeRFよりも再現性が高い。
論文 参考訳(メタデータ) (2024-10-22T13:17:20Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - E2GS: Event Enhanced Gaussian Splatting [9.096805985896625]
Event Enhanced Gaussian Splatting (E2GS)は、イベントデータをGaussian Splattingに組み込む新しい手法である。
我々のE2GSは、ぼやけた画像とイベントデータの両方を効果的に利用し、画像の劣化を著しく改善し、高品質の新規ビュー合成を生成する。
論文 参考訳(メタデータ) (2024-06-21T08:43:47Z) - SpikeNVS: Enhancing Novel View Synthesis from Blurry Images via Spike Camera [78.20482568602993]
従来のRGBカメラは、動きがぼやけやすい。
イベントやスパイクカメラのようなニューロモルフィックカメラは、本質的により包括的な時間情報をキャプチャする。
我々の設計は、NeRFと3DGSをまたいだ新しいビュー合成を強化することができる。
論文 参考訳(メタデータ) (2024-04-10T03:31:32Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z) - NeRFusion: Fusing Radiance Fields for Large-Scale Scene Reconstruction [50.54946139497575]
我々は,NeRF と TSDF をベースとした核融合技術の利点を組み合わせて,大規模再構築とフォトリアリスティックレンダリングを実現する手法であるNeRFusion を提案する。
我々は,大規模な屋内・小規模の両方の物体シーンにおいて,NeRFの最先端性を達成し,NeRFや他の最近の手法よりも大幅に高速に再現できることを実証した。
論文 参考訳(メタデータ) (2022-03-21T18:56:35Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。