論文の概要: E2GS: Event Enhanced Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2406.14978v1
- Date: Fri, 21 Jun 2024 08:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:13:25.510453
- Title: E2GS: Event Enhanced Gaussian Splatting
- Title(参考訳): E2GS: イベント強化ガウシアンスプレイティング
- Authors: Hiroyuki Deguchi, Mana Masuda, Takuya Nakabayashi, Hideo Saito,
- Abstract要約: Event Enhanced Gaussian Splatting (E2GS)は、イベントデータをGaussian Splattingに組み込む新しい手法である。
我々のE2GSは、ぼやけた画像とイベントデータの両方を効果的に利用し、画像の劣化を著しく改善し、高品質の新規ビュー合成を生成する。
- 参考スコア(独自算出の注目度): 9.096805985896625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras, known for their high dynamic range, absence of motion blur, and low energy usage, have recently found a wide range of applications thanks to these attributes. In the past few years, the field of event-based 3D reconstruction saw remarkable progress, with the Neural Radiance Field (NeRF) based approach demonstrating photorealistic view synthesis results. However, the volume rendering paradigm of NeRF necessitates extensive training and rendering times. In this paper, we introduce Event Enhanced Gaussian Splatting (E2GS), a novel method that incorporates event data into Gaussian Splatting, which has recently made significant advances in the field of novel view synthesis. Our E2GS effectively utilizes both blurry images and event data, significantly improving image deblurring and producing high-quality novel view synthesis. Our comprehensive experiments on both synthetic and real-world datasets demonstrate our E2GS can generate visually appealing renderings while offering faster training and rendering speed (140 FPS). Our code is available at https://github.com/deguchihiroyuki/E2GS.
- Abstract(参考訳): イベントカメラは、高いダイナミックレンジ、動きのぼかしの欠如、エネルギー消費の低さで知られており、最近これらの属性のおかげで幅広い用途が発見されている。
過去数年間、事象に基づく3次元再構成の分野は顕著な進歩を遂げ、NeRF(Neural Radiance Field)ベースのアプローチがフォトリアリスティックなビュー合成結果を示している。
しかし、NeRFのボリュームレンダリングパラダイムは、広範なトレーニングとレンダリング時間を必要とする。
本稿では,イベントデータをガウス版に組み込む新しい手法であるイベント拡張ガウス版(E2GS)について紹介する。
我々のE2GSは、ぼやけた画像とイベントデータの両方を効果的に利用し、画像の劣化を著しく改善し、高品質の新規ビュー合成を生成する。
合成と実世界の両方のデータセットに関する包括的な実験は、E2GSがより高速なトレーニングとレンダリング速度(140 FPS)を提供しながら、視覚的に魅力的なレンダリングを生成することを実証しています。
私たちのコードはhttps://github.com/deguchihiroyuki/E2GS.comで公開されています。
関連論文リスト
- E-3DGS: Event-Based Novel View Rendering of Large-Scale Scenes Using 3D Gaussian Splatting [23.905254854888863]
イベントベース新規ビュー合成のための3Dガウシアンについて紹介する。
本手法は,視覚的品質の高い大規模・非有界なシーンを再構成する。
この設定に適した、最初のリアルおよび合成イベントデータセットをコントリビュートします。
論文 参考訳(メタデータ) (2025-02-15T15:04:10Z) - BeSplat: Gaussian Splatting from a Single Blurry Image and Event Stream [13.649334929746413]
3D Gaussian Splatting (3DGS)は、長いトレーニング時間や遅いレンダリング速度といった重要な課題に効果的に対処している。
本研究では,1つの動きブル画像とそれに対応するイベントストリームから,シャープな放射場(ガウススプラッツ)の回復を実証する。
論文 参考訳(メタデータ) (2024-12-26T22:35:29Z) - SweepEvGS: Event-Based 3D Gaussian Splatting for Macro and Micro Radiance Field Rendering from a Single Sweep [48.34647667445792]
SweepEvGSは、イベントカメラを活用して、単一のスイープから堅牢で正確な新しいビュー合成を行う、新しいハードウェア統合手法である。
SweepEvGSの強靭性と効率性は,3つの異なる画像環境における実験により検証した。
以上の結果から,SweepEvGSは視覚的レンダリング品質,レンダリング速度,計算効率において,既存の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-12-16T09:09:42Z) - Superpoint Gaussian Splatting for Real-Time High-Fidelity Dynamic Scene Reconstruction [10.208558194785017]
我々はSuperpoint Gaussian Splatting(SP-GS)という新しいフレームワークを提案する。
我々のフレームワークはまずシーンを再構築し、同様の性質を持つガウスをスーパーポイントにクラスタ化する。
これらのスーパーポイントを利用して、3次元ガウススプラッティングを動的シーンに拡張し、計算コストをわずかに増加させる。
論文 参考訳(メタデータ) (2024-06-06T02:32:41Z) - Dynamic 3D Gaussian Fields for Urban Areas [60.64840836584623]
大規模でダイナミックな都市部における新規ビュー合成(NVS)のための効率的なニューラル3Dシーン表現法を提案する。
本研究では,大規模都市にスケールするニューラルネットワークシーン表現である4DGFを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:07:39Z) - BAD-Gaussians: Bundle Adjusted Deblur Gaussian Splatting [8.380954205255104]
BAD-Gaussianは、不正確なカメラのポーズで、激しい動きをブラインドした画像を処理するための新しいアプローチである。
提案手法は,従来の最先端のデブルーニューラルレンダリング手法と比較して,優れたレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-03-18T14:43:04Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - Spacetime Gaussian Feature Splatting for Real-Time Dynamic View Synthesis [28.455719771979876]
本研究では,新しい動的シーン表現として時空間ガウス特徴分割法を提案する。
本手法は,小型ストレージを維持しながら,最先端のレンダリング品質と高速化を実現する。
論文 参考訳(メタデータ) (2023-12-28T04:14:55Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - 4D Gaussian Splatting for Real-Time Dynamic Scene Rendering [103.32717396287751]
本研究では,動的シーンの全体像として4D-GS(Gaussian Splatting)を提案する。
HexPlaneにインスパイアされたニューラルボクセル符号化アルゴリズムは、4Dニューラルボクセルの機能を効率的に構築するために提案されている。
我々の4D-GS法は、高解像度の82 FPSで、3090 GPUで800$times$800の解像度でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:21:41Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。