論文の概要: SaENeRF: Suppressing Artifacts in Event-based Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2504.16389v1
- Date: Wed, 23 Apr 2025 03:33:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.987794
- Title: SaENeRF: Suppressing Artifacts in Event-based Neural Radiance Fields
- Title(参考訳): SaENeRF:イベントベースニューラルネットワーク分野におけるアーチファクトの抑制
- Authors: Yuanjian Wang, Yufei Deng, Rong Xiao, Jiahao Fan, Chenwei Tang, Deng Xiong, Jiancheng Lv,
- Abstract要約: イベントカメラは低レイテンシ、低消費電力、低帯域幅、高ダイナミックレンジなどの利点を提供する。
イベントデータから幾何的に一貫性があり、測光的に正確な3D表現を再構築することは、基本的に困難である。
イベントストリームのみからの静的なシーンの3次元一貫性, 密度放射, フォトリアリスティックなNeRF再構成を可能にする, 新規な自己教師型フレームワークSaENeRFを提案する。
- 参考スコア(独自算出の注目度): 12.428456822446947
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Event cameras are neuromorphic vision sensors that asynchronously capture changes in logarithmic brightness changes, offering significant advantages such as low latency, low power consumption, low bandwidth, and high dynamic range. While these characteristics make them ideal for high-speed scenarios, reconstructing geometrically consistent and photometrically accurate 3D representations from event data remains fundamentally challenging. Current event-based Neural Radiance Fields (NeRF) methods partially address these challenges but suffer from persistent artifacts caused by aggressive network learning in early stages and the inherent noise of event cameras. To overcome these limitations, we present SaENeRF, a novel self-supervised framework that effectively suppresses artifacts and enables 3D-consistent, dense, and photorealistic NeRF reconstruction of static scenes solely from event streams. Our approach normalizes predicted radiance variations based on accumulated event polarities, facilitating progressive and rapid learning for scene representation construction. Additionally, we introduce regularization losses specifically designed to suppress artifacts in regions where photometric changes fall below the event threshold and simultaneously enhance the light intensity difference of non-zero events, thereby improving the visual fidelity of the reconstructed scene. Extensive qualitative and quantitative experiments demonstrate that our method significantly reduces artifacts and achieves superior reconstruction quality compared to existing methods. The code is available at https://github.com/Mr-firework/SaENeRF.
- Abstract(参考訳): イベントカメラは、対数輝度の変化を非同期に捉え、低レイテンシ、低消費電力、低帯域幅、高ダイナミックレンジなどの大きな利点を提供するニューロモルフィック視覚センサである。
これらの特徴は高速シナリオに最適であるが、幾何学的に整合性があり、測光的に正確な3D表現をイベントデータから再構築することは基本的に困難である。
現在のイベントベースのNeural Radiance Fields(NeRF)手法は、これらの課題に部分的に対処するが、早期の攻撃的なネットワーク学習とイベントカメラ固有のノイズによって引き起こされる永続的なアーティファクトに悩まされる。
これらの制約を克服するために,イベントストリームのみからの静的シーンの3D一貫性,密度,フォトリアリスティックなNeRF再構成を可能にする,新たな自己教師型フレームワークであるSaENeRFを提案する。
提案手法は,蓄積した事象の極性に基づいて予測放射量の変動を正規化し,シーン表現構築のための進行的かつ迅速な学習を容易にする。
さらに,光度変化がイベント閾値以下となる領域におけるアーティファクトの抑制と,非ゼロ事象の光強度差を同時に向上させることにより,再構成シーンの視覚的忠実度を向上させるために特別に設計された正規化損失を導入する。
大規模定性的,定量的な実験により,本手法はアーティファクトを著しく低減し,既存手法に比べて優れた復元品質を実現することが示された。
コードはhttps://github.com/Mr-firework/SaENeRFで公開されている。
関連論文リスト
- Low-Light Image Enhancement using Event-Based Illumination Estimation [83.81648559951684]
低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
本稿では,「時間的マッピング」イベントを用いた照明推定の観点から,新たな道を開く。
我々は、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集する。
論文 参考訳(メタデータ) (2025-04-13T00:01:33Z) - AE-NeRF: Augmenting Event-Based Neural Radiance Fields for Non-ideal Conditions and Larger Scene [31.142207770861457]
非理想的条件からイベントベースNeRFを学習する際の課題を解決するために,AE-NeRFを提案する。
本手法は,イベントベース3次元再構成における新しい最先端技術を実現する。
論文 参考訳(メタデータ) (2025-01-06T07:00:22Z) - Deblurring Neural Radiance Fields with Event-driven Bundle Adjustment [23.15130387716121]
本稿では,学習可能なポーズとNeRFパラメータを協調的に最適化するために,Bundle Adjustment for Deblurring Neural Radiance Fields (EBAD-NeRF)を提案する。
EBAD-NeRFは露光時間中に正確なカメラ軌跡を得ることができ、従来よりもシャープな3D表現を学習することができる。
論文 参考訳(メタデータ) (2024-06-20T14:33:51Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - NeRF On-the-go: Exploiting Uncertainty for Distractor-free NeRFs in the Wild [55.154625718222995]
我々は,複雑なシーンにおける新規ビューのロバストな合成を可能にする,シンプルで効果的な方法であるNeRF On-the-goを紹介する。
本手法は,最先端技術よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-05-29T02:53:40Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z) - T\"oRF: Time-of-Flight Radiance Fields for Dynamic Scene View Synthesis [32.878225196378374]
連続波ToFカメラのための画像形成モデルに基づくニューラル表現を提案する。
提案手法は, 動的シーン再構成のロバスト性を改善し, 誤ったキャリブレーションや大きな動きに改善することを示す。
論文 参考訳(メタデータ) (2021-09-30T17:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。