論文の概要: GR3EN: Generative Relighting for 3D Environments
- arxiv url: http://arxiv.org/abs/2601.16272v1
- Date: Thu, 22 Jan 2026 19:10:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.375164
- Title: GR3EN: Generative Relighting for 3D Environments
- Title(参考訳): GR3EN: 3D環境のための生成的リライト
- Authors: Xiaoyan Xing, Philipp Henzler, Junhwa Hur, Runze Li, Jonathan T. Barron, Pratul P. Srinivasan, Dor Verbin,
- Abstract要約: 本研究では,大規模な室内環境の3次元再構成をリライトする手法を提案する。
提案手法は,映像間リライト拡散モデルの出力を3次元再構成に蒸留することにより,室内空間の3次元リライト化を可能にする。
これにより、複雑な現実世界のシーンの3D再構成をリライトできるフレキシブルなシステムを実現することができる。
- 参考スコア(独自算出の注目度): 52.77521698841744
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a method for relighting 3D reconstructions of large room-scale environments. Existing solutions for 3D scene relighting often require solving under-determined or ill-conditioned inverse rendering problems, and are as such unable to produce high-quality results on complex real-world scenes. Though recent progress in using generative image and video diffusion models for relighting has been promising, these techniques are either limited to 2D image and video relighting or 3D relighting of individual objects. Our approach enables controllable 3D relighting of room-scale scenes by distilling the outputs of a video-to-video relighting diffusion model into a 3D reconstruction. This side-steps the need to solve a difficult inverse rendering problem, and results in a flexible system that can relight 3D reconstructions of complex real-world scenes. We validate our approach on both synthetic and real-world datasets to show that it can faithfully render novel views of scenes under new lighting conditions.
- Abstract(参考訳): 本研究では,大規模な室内環境の3次元再構成をリライトする手法を提案する。
既存の3Dシーンのリライティングのソリューションは、しばしば未決定または不条件の逆レンダリングの問題を解決する必要があり、複雑な現実世界のシーンで高品質な結果を生み出すことができない。
生成画像と映像拡散モデルを用いたリライティングの最近の進歩は有望であるが、これらの技術は2次元画像とビデオリライティングに限られるか、個々のオブジェクトの3次元リライティングに限られている。
提案手法は,映像間リライト拡散モデルの出力を3次元再構成に蒸留することにより,室内空間の3次元リライト化を可能にする。
これにより、複雑な現実世界のシーンの3D再構成をリライトできるフレキシブルなシステムを実現することができる。
我々は、合成と実世界の両方のデータセットに対するアプローチを検証し、新しい照明条件下でのシーンの新たなビューを忠実にレンダリングできることを示します。
関連論文リスト
- Lumos3D: A Single-Forward Framework for Low-Light 3D Scene Restoration [10.184395697154448]
我々は3次元低照度シーン復元のためのポーズレスフレームワークであるLumos3Dを紹介する。
幾何学的な基底を持つバックボーン上に構築されたLumos3Dは、通常の光の3Dガウス表現を再構成する。
実世界のデータセットの実験では、Lumos3Dは高忠実度低光度3Dシーンの復元を実現する。
論文 参考訳(メタデータ) (2025-11-12T23:42:03Z) - GenLit: Reformulating Single-Image Relighting as Video Generation [42.0880277180892]
我々は、映像生成モデルに光操作を行うためのグラフィックスエンジンの能力を蒸留するフレームワークであるGenLitを紹介する。
小さな合成データセットのみに微調整されたモデルが現実世界のシーンに一般化されることが分かりました。
論文 参考訳(メタデータ) (2024-12-15T15:40:40Z) - ReconX: Reconstruct Any Scene from Sparse Views with Video Diffusion Model [16.14713604672497]
ReconXは、時間生成タスクとして曖昧な再構築課題を再編成する、新しい3Dシーン再構築パラダイムである。
提案したReconXはまずグローバルポイントクラウドを構築し、3D構造条件としてコンテキスト空間にエンコードする。
この条件に導かれ、ビデオ拡散モデルは、ディテール保存され、高い3D一貫性を示すビデオフレームを合成する。
論文 参考訳(メタデータ) (2024-08-29T17:59:40Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - 3D Scene Creation and Rendering via Rough Meshes: A Lighting Transfer Avenue [49.62477229140788]
本稿では,再構成された3Dモデルを3Dシーン作成やレンダリングなどの実用的な3Dモデリングパイプラインに柔軟に統合する方法について述べる。
我々はNFRとPBRを橋渡しする照明伝達ネットワーク(LighTNet)を提案する。
論文 参考訳(メタデータ) (2022-11-27T13:31:00Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。