論文の概要: Dark-EvGS: Event Camera as an Eye for Radiance Field in the Dark
- arxiv url: http://arxiv.org/abs/2507.11931v1
- Date: Wed, 16 Jul 2025 05:54:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.241573
- Title: Dark-EvGS: Event Camera as an Eye for Radiance Field in the Dark
- Title(参考訳): Dark-EvGS:暗黒の放射界を捉えたイベントカメラ
- Authors: Jingqian Wu, Peiqi Duan, Zongqiang Wang, Changwei Wang, Boxin Shi, Edmund Y. Lam,
- Abstract要約: そこで我々はDark-EvGSを提案する。Dark-EvGSは、任意の視点から明るいフレームを復元できる3D GSフレームワークである。
提案手法は,低照度条件下での放射場再構成を克服し,既存の手法よりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 51.68144172958247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In low-light environments, conventional cameras often struggle to capture clear multi-view images of objects due to dynamic range limitations and motion blur caused by long exposure. Event cameras, with their high-dynamic range and high-speed properties, have the potential to mitigate these issues. Additionally, 3D Gaussian Splatting (GS) enables radiance field reconstruction, facilitating bright frame synthesis from multiple viewpoints in low-light conditions. However, naively using an event-assisted 3D GS approach still faced challenges because, in low light, events are noisy, frames lack quality, and the color tone may be inconsistent. To address these issues, we propose Dark-EvGS, the first event-assisted 3D GS framework that enables the reconstruction of bright frames from arbitrary viewpoints along the camera trajectory. Triplet-level supervision is proposed to gain holistic knowledge, granular details, and sharp scene rendering. The color tone matching block is proposed to guarantee the color consistency of the rendered frames. Furthermore, we introduce the first real-captured dataset for the event-guided bright frame synthesis task via 3D GS-based radiance field reconstruction. Experiments demonstrate that our method achieves better results than existing methods, conquering radiance field reconstruction under challenging low-light conditions. The code and sample data are included in the supplementary material.
- Abstract(参考訳): 低照度環境では、従来のカメラは、ダイナミックレンジの制限と長時間露光による動きのぼかしにより、オブジェクトの鮮明なマルチビュー画像を取得するのに苦労することが多い。
イベントカメラは、その高ダイナミックレンジと高速特性により、これらの問題を緩和する可能性がある。
さらに、3Dガウス散乱(GS)は、低照度条件下での複数の視点からの明るいフレーム合成を容易にし、放射場再構成を可能にする。
しかし、低照度では、イベントはノイズが多く、フレームは品質が欠如し、色調が矛盾する可能性があるため、イベントアシスト3D GSアプローチはいまだに課題に直面している。
これらの問題に対処するため,Dark-EvGSを提案する。Dark-EvGSは,カメラ軌道に沿った任意の視点から明るいフレームを復元できる,イベント支援型3D GSフレームワークである。
三重項レベルの監督は、全体的知識、詳細な詳細、鮮明なシーンレンダリングを得るために提案されている。
色調マッチングブロックは、描画フレームの色調の整合性を保証するために提案される。
さらに,3D GSをベースとした放射場再構成により,イベント誘導型明るいフレーム合成タスクのための最初のリアルタイムデータセットを提案する。
実験により, 従来の手法よりも優れた結果が得られ, 低照度条件下での放射場再構成を克服した。
補助材料にはコード及びサンプルデータが含まれている。
関連論文リスト
- MV-CoLight: Efficient Object Compositing with Consistent Lighting and Shadow Generation [19.46962637673285]
MV-CoLightは2Dおよび3Dシーンで合成される照度一貫性のあるオブジェクトのためのフレームワークである。
2次元画像入力と3次元ガウスシーン表現をシームレスに整列するために、ヒルベルト曲線に基づく写像を用いる。
実験では、標準ベンチマークとデータセット間で、最先端の調和した結果を実証した。
論文 参考訳(メタデータ) (2025-05-27T17:53:02Z) - EBAD-Gaussian: Event-driven Bundle Adjusted Deblur Gaussian Splatting [21.46091843175779]
イベント駆動バンドル調整デブルガウススメッティング(EBAD-Gaussian)
EBAD-Gaussianは、イベントストリームとひどくぼやけた画像から、鋭い3Dガウシアンを再構築する。
合成および実世界のデータセットの実験により、EBAD-Gaussianは高品質な3Dシーンを再構築できることが示された。
論文 参考訳(メタデータ) (2025-04-14T09:17:00Z) - Luminance-GS: Adapting 3D Gaussian Splatting to Challenging Lighting Conditions with View-Adaptive Curve Adjustment [46.60106452798745]
3DGSを用いた照明条件下での高品質な新規ビュー合成を実現するための新しいアプローチであるLuminance-GSを紹介する。
ビューごとのカラーマトリクスマッピングとビュー適応曲線調整を採用することで、Luminance-GSは様々な照明条件でSOTA(State-of-the-art)結果を達成する。
以前のNeRFおよび3DGSベースのベースラインと比較して、Luminance-GSは再現性を改善したリアルタイムレンダリング速度を提供する。
論文 参考訳(メタデータ) (2025-04-02T08:54:57Z) - E-3DGS: Event-Based Novel View Rendering of Large-Scale Scenes Using 3D Gaussian Splatting [23.905254854888863]
イベントベース新規ビュー合成のための3Dガウシアンについて紹介する。
本手法は,視覚的品質の高い大規模・非有界なシーンを再構成する。
この設定に適した、最初のリアルおよび合成イベントデータセットをコントリビュートします。
論文 参考訳(メタデータ) (2025-02-15T15:04:10Z) - SweepEvGS: Event-Based 3D Gaussian Splatting for Macro and Micro Radiance Field Rendering from a Single Sweep [48.34647667445792]
SweepEvGSは、イベントカメラを活用して、単一のスイープから堅牢で正確な新しいビュー合成を行う、新しいハードウェア統合手法である。
SweepEvGSの強靭性と効率性は,3つの異なる画像環境における実験により検証した。
以上の結果から,SweepEvGSは視覚的レンダリング品質,レンダリング速度,計算効率において,既存の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-12-16T09:09:42Z) - E-3DGS: Gaussian Splatting with Exposure and Motion Events [29.042018288378447]
E-3DGSは、イベントベースの3D再構築のための新しいベンチマークを、困難な状況下で堅牢なパフォーマンスで設定する。
EME-3Dは、露光イベント、モーションイベント、カメラキャリブレーションパラメータ、スパースポイントクラウドを備えた実世界の3Dデータセットである。
論文 参考訳(メタデータ) (2024-10-22T13:17:20Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [72.60992807941885]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - Complementing Event Streams and RGB Frames for Hand Mesh Reconstruction [51.87279764576998]
EvRGBHand - イベントカメラとRGBカメラによる3Dハンドメッシュ再構築のための最初のアプローチを提案する。
EvRGBHandは、RGBベースのHMRにおける露出とモーションのぼかしの問題と、イベントベースのHMRにおける前景の不足とバックグラウンドのオーバーフロー問題に対処することができる。
論文 参考訳(メタデータ) (2024-03-12T06:04:50Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。