論文の概要: Dark3R: Learning Structure from Motion in the Dark
- arxiv url: http://arxiv.org/abs/2603.05330v1
- Date: Thu, 05 Mar 2026 16:11:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.314247
- Title: Dark3R: Learning Structure from Motion in the Dark
- Title(参考訳): Dark3R: 暗闇で動きから構造を学ぶ
- Authors: Andrew Y Guo, Anagh Malik, SaiKiran Tedla, Yutong Dai, Yiqian Qin, Zach Salehe, Benjamin Attal, Sotiris Nousias, Kyros Kutulakos, David B. Lindell,
- Abstract要約: 我々はDark3Rを紹介した。Dark3Rは暗黒で動きから構成するフレームワークで、信号-雑音比が4ドル以下で生画像を直接操作する。
我々の重要な洞察は、教師による蒸留プロセスを通じて、大規模3D基礎モデルを極端に低照度な環境に適応させることである。
Dark3Rは3Dの監督を必要としない。
- 参考スコア(独自算出の注目度): 17.800675734016554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Dark3R, a framework for structure from motion in the dark that operates directly on raw images with signal-to-noise ratios (SNRs) below $-4$ dB -- a regime where conventional feature- and learning-based methods break down. Our key insight is to adapt large-scale 3D foundation models to extreme low-light conditions through a teacher--student distillation process, enabling robust feature matching and camera pose estimation in low light. Dark3R requires no 3D supervision; it is trained solely on noisy--clean raw image pairs, which can be either captured directly or synthesized using a simple Poisson--Gaussian noise model applied to well-exposed raw images. To train and evaluate our approach, we introduce a new, exposure-bracketed dataset that includes $\sim$42,000 multi-view raw images with ground-truth 3D annotations, and we demonstrate that Dark3R achieves state-of-the-art structure from motion in the low-SNR regime. Further, we demonstrate state-of-the-art novel view synthesis in the dark using Dark3R's predicted poses and a coarse-to-fine radiance field optimization procedure.
- Abstract(参考訳): 我々はDark3Rを紹介した。Dark3Rは暗黒における動きから構築するフレームワークで、信号-雑音比(SNR)が4ドル以下で生画像を直接操作する。
我々は,教師・学生の蒸留プロセスを通じて,大規模3D基礎モデルを極端に低照度な条件に適応させることで,低照度におけるロバストな特徴マッチングとカメラポーズ推定を可能にします。Dark3Rは,ノイズの多いクリーンな生画像対のみをトレーニングします。これは,単純なPoisson-Gaussianノイズモデルを用いて直接,あるいは合成することが可能です。
提案手法をトレーニングし評価するために,Dark3Rが低SNR方式の動作から最先端構造を達成できることを実証した。
さらに,Dark3Rの予測ポーズと粗大な放射場最適化手法を用いて,暗黒領域における最先端のノベルビュー合成を実証する。
関連論文リスト
- R3GW: Relightable 3D Gaussians for Outdoor Scenes in the Wild [23.68389428693905]
3D Gaussian Splatting (3DGS) は静的シーンの3D再構成と新しいビュー合成の先駆的手法として確立されている。
本稿では,野生で捉えた屋外シーンの3DGS表現を学習する新しい手法R3GWを提案する。
論文 参考訳(メタデータ) (2026-03-03T09:40:16Z) - SplatBright: Generalizable Low-Light Scene Reconstruction from Sparse Views via Physically-Guided Gaussian Enhancement [26.905118897488077]
SplatBrightは、スパースsRGB入力からのジョイントローライト拡張と再構成のための最初の一般化可能な3Dガウスフレームワークである。
我々のキーとなる考え方は、物理的に誘導された照明モデリングと幾何学的外観の疎結合を統合して、一貫した低照度再構成を行うことである。
SplatBright は2D と 3D の両方の手法と比較して、目立たない低照度シーンに優れた新規ビュー合成、クロスビュー一貫性、そしてより良い一般化を実現している。
論文 参考訳(メタデータ) (2025-12-21T09:06:16Z) - Learning Neural Exposure Fields for View Synthesis [69.31286586118277]
高品質で3D一貫性のある外観で3Dシーンを堅牢に再構築する新技術であるNeural Exposure Fields (NExF)を紹介する。
コアでは,3次元点当たりの露出値を最適に予測するニューラルフィールドを学習し,ニューラルシーンの表現とともに露出を最適化することを提案する。
提案手法は従来の作業よりも高速にトレーニングし,いくつかのベンチマークにおいて,パフォーマンスのよいベースラインよりも55%以上向上した最先端の結果を生成する。
論文 参考訳(メタデータ) (2025-10-09T14:32:41Z) - LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis [17.470869402542533]
低照度シーンにおける新しいビュー合成(NVS)は、劣化した入力のために重要な課題である。
低照度sRGB画像からの3次元再構成と拡張のための新しいフレームワークであるLL-Gaussianを提案する。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮する。
論文 参考訳(メタデータ) (2025-04-14T15:39:31Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Splatfacto-W: A Nerfstudio Implementation of Gaussian Splatting for Unconstrained Photo Collections [25.154665328053333]
Splatfacto-Wは、ガウスごとのニューラルカラー特徴と画像ごとの外観をレンダリングプロセスに組み込む、自明なアプローチである。
提案手法は,3DGSに比べて平均5.3dBのPak Signal-to-Noise Ratio(PSNR)を向上し,NeRF法に比べて150倍のトレーニング速度を向上し,3DGSと同様のレンダリング速度を実現する。
論文 参考訳(メタデータ) (2024-07-17T04:02:54Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - From Chaos to Clarity: 3DGS in the Dark [28.232432162734437]
未処理の生画像のノイズは、3次元シーン表現の精度を損なう。
3D Gaussian Splatting (3DGS)はこのノイズに特に影響を受けやすい。
ノイズの多い生画像からHDR 3DGSを再構成するための,新しい自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T15:00:16Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Spatiotemporally Consistent HDR Indoor Lighting Estimation [66.26786775252592]
本研究では,屋内照明推定問題を解決するための物理動機付きディープラーニングフレームワークを提案する。
深度マップを用いた1枚のLDR画像から,任意の画像位置における空間的に一貫した照明を予測できる。
我々のフレームワークは、最先端の単一画像やビデオベースの手法と比較して、高画質で光リアリスティック照明予測を実現する。
論文 参考訳(メタデータ) (2023-05-07T20:36:29Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。