論文の概要: Lumos3D: A Single-Forward Framework for Low-Light 3D Scene Restoration
- arxiv url: http://arxiv.org/abs/2511.09818v1
- Date: Fri, 14 Nov 2025 01:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.503976
- Title: Lumos3D: A Single-Forward Framework for Low-Light 3D Scene Restoration
- Title(参考訳): Lumos3D:低照度3Dシーン復元のための単一フォワードフレームワーク
- Authors: Hanzhou Liu, Peng Jiang, Jia Huang, Mi Lu,
- Abstract要約: 我々は3次元低照度シーン復元のためのポーズレスフレームワークであるLumos3Dを紹介する。
幾何学的な基底を持つバックボーン上に構築されたLumos3Dは、通常の光の3Dガウス表現を再構成する。
実世界のデータセットの実験では、Lumos3Dは高忠実度低光度3Dシーンの復元を実現する。
- 参考スコア(独自算出の注目度): 10.184395697154448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Restoring 3D scenes captured under low-light con- ditions remains a fundamental yet challenging problem. Most existing approaches depend on precomputed camera poses and scene-specific optimization, which greatly restricts their scala- bility to dynamic real-world environments. To overcome these limitations, we introduce Lumos3D, a generalizable pose-free framework for 3D low-light scene restoration. Trained once on a single dataset, Lumos3D performs inference in a purely feed- forward manner, directly restoring illumination and structure from unposed, low-light multi-view images without any per- scene training or optimization. Built upon a geometry-grounded backbone, Lumos3D reconstructs a normal-light 3D Gaussian representation that restores illumination while faithfully pre- serving structural details. During training, a cross-illumination distillation scheme is employed, where the teacher network is distilled on normal-light ground truth to transfer accurate geometric information, such as depth, to the student model. A dedicated Lumos loss is further introduced to promote photomet- ric consistency within the reconstructed 3D space. Experiments on real-world datasets demonstrate that Lumos3D achieves high- fidelity low-light 3D scene restoration with accurate geometry and strong generalization to unseen cases. Furthermore, the framework naturally extends to handle over-exposure correction, highlighting its versatility for diverse lighting restoration tasks.
- Abstract(参考訳): 低照度のコンディションの下で撮影された3Dシーンの復元は、根本的だが難しい問題だ。
既存のアプローチのほとんどは、事前に計算されたカメラのポーズとシーン固有の最適化に依存しており、それによって頭蓋骨の能力がダイナミックな現実世界環境に大幅に制限される。
これらの制約を克服するために,3次元低照度シーン復元のための汎用的なポーズフリーフレームワークであるLumos3Dを導入する。
1つのデータセットで一度トレーニングされたLumos3Dは、純粋にフィードフォワードで推論を実行し、シーンごとのトレーニングや最適化なしに、未設定の低照度マルチビューイメージから直接照明と構造を復元する。
Lumos3Dは、幾何学的な背景を持つバックボーンの上に構築され、通常の光の3Dガウス表現を再構築する。
トレーニング中に、教師ネットワークを通常の地上の真実に基づいて蒸留し、深度などの正確な幾何学的情報を学生モデルに転送するクロスイルミネーション蒸留方式が採用されている。
専用のルーモス損失がさらに導入され、再構成された3次元空間における光メチレンの一貫性が促進される。
実世界のデータセットの実験により、Lumos3Dは正確な幾何学と、目に見えないケースへの強力な一般化により、高忠実度低照度3Dシーンの復元を実現することが示された。
さらに、このフレームワークは自然に露出の過度な修正を処理できるように拡張され、様々な照明修復タスクの汎用性を強調している。
関連論文リスト
- ComGS: Efficient 3D Object-Scene Composition via Surface Octahedral Probes [46.83857963152283]
Gaussian Splatting (GS)は没入型レンダリングを可能にするが、現実的な3Dオブジェクトシーンの合成は難しいままである。
我々は,新しい3Dオブジェクトシーン合成フレームワークであるComGSを提案する。
提案手法は,28FPS程度の高画質リアルタイムレンダリングを実現し,鮮明な影で視覚的に調和し,編集に36秒しか必要としない。
論文 参考訳(メタデータ) (2025-10-09T03:10:41Z) - MV-CoLight: Efficient Object Compositing with Consistent Lighting and Shadow Generation [19.46962637673285]
MV-CoLightは2Dおよび3Dシーンで合成される照度一貫性のあるオブジェクトのためのフレームワークである。
2次元画像入力と3次元ガウスシーン表現をシームレスに整列するために、ヒルベルト曲線に基づく写像を用いる。
実験では、標準ベンチマークとデータセット間で、最先端の調和した結果を実証した。
論文 参考訳(メタデータ) (2025-05-27T17:53:02Z) - SpatialCrafter: Unleashing the Imagination of Video Diffusion Models for Scene Reconstruction from Limited Observations [44.53106180688135]
この作業は、スパースやシングルビューのインプットから3Dシーンを再構築する上での課題である。
SpatialCrafterは,ビデオ拡散モデルにおける豊富な知識を活用して,可算的な追加観測を生成するフレームワークである。
トレーニング可能なカメラエンコーダと、明示的な幾何学的制約に対するエピポーラアテンション機構により、精密なカメラ制御と3D整合性を実現する。
論文 参考訳(メタデータ) (2025-05-17T13:05:13Z) - Lite2Relight: 3D-aware Single Image Portrait Relighting [87.62069509622226]
Lite2Relightは、肖像画の3D一貫性のある頭部ポーズを予測できる新しいテクニックだ。
事前学習した幾何認識エンコーダと特徴アライメントモジュールを利用することで、入力画像を3D空間にマッピングする。
これには、髪、目、表情を含むフルヘッドの3D一貫性のある結果が含まれる。
論文 参考訳(メタデータ) (2024-07-15T07:16:11Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - 3D Scene Creation and Rendering via Rough Meshes: A Lighting Transfer Avenue [49.62477229140788]
本稿では,再構成された3Dモデルを3Dシーン作成やレンダリングなどの実用的な3Dモデリングパイプラインに柔軟に統合する方法について述べる。
我々はNFRとPBRを橋渡しする照明伝達ネットワーク(LighTNet)を提案する。
論文 参考訳(メタデータ) (2022-11-27T13:31:00Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - Towards Non-Line-of-Sight Photography [48.491977359971855]
非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
論文 参考訳(メタデータ) (2021-09-16T08:07:13Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。