論文の概要: LightSwitch: Multi-view Relighting with Material-guided Diffusion
- arxiv url: http://arxiv.org/abs/2508.06494v1
- Date: Fri, 08 Aug 2025 17:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.332494
- Title: LightSwitch: Multi-view Relighting with Material-guided Diffusion
- Title(参考訳): LightSwitch: 材料誘導拡散によるマルチビューリライト
- Authors: Yehonathan Litman, Fernando De la Torre, Shubham Tulsiani,
- Abstract要約: LightSwitchは、新しいファインチューニングされたマテリアルライティング拡散フレームワークである。
我々の2Dリライティング予測品質は、画像から直接リライティングする過去の最先端リライティングよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 73.5965603000002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent approaches for 3D relighting have shown promise in integrating 2D image relighting generative priors to alter the appearance of a 3D representation while preserving the underlying structure. Nevertheless, generative priors used for 2D relighting that directly relight from an input image do not take advantage of intrinsic properties of the subject that can be inferred or cannot consider multi-view data at scale, leading to subpar relighting. In this paper, we propose Lightswitch, a novel finetuned material-relighting diffusion framework that efficiently relights an arbitrary number of input images to a target lighting condition while incorporating cues from inferred intrinsic properties. By using multi-view and material information cues together with a scalable denoising scheme, our method consistently and efficiently relights dense multi-view data of objects with diverse material compositions. We show that our 2D relighting prediction quality exceeds previous state-of-the-art relighting priors that directly relight from images. We further demonstrate that LightSwitch matches or outperforms state-of-the-art diffusion inverse rendering methods in relighting synthetic and real objects in as little as 2 minutes.
- Abstract(参考訳): 近年の3次元リライティングのアプローチは,2次元画像リライティング生成前を統合して,基礎構造を維持しながら3次元表現の外観を変えることを約束している。
それでも、入力画像から直接のリライトが、大規模にマルチビューデータを考えることができない対象の本質的な特性を生かさない2次元リライトに使用される生成的先行性は、サブパーリライトに繋がる。
本稿では,任意の数の入力画像を対象の照明条件に効率よくリライトし,推定固有特性からの手がかりを取り入れた,新しい微調整材料光拡散フレームワークLightswitchを提案する。
マルチビューとマテリアル情報とスケーラブルなdenoisingスキームを組み合わせることで,多種多様な材料構成を持つオブジェクトの高密度なマルチビューデータを連続的かつ効率的にリライトする。
我々の2Dリライティング予測品質は、画像から直接リライティングする過去の最先端リライティングよりも優れていることを示す。
さらに、LightSwitchは、合成オブジェクトと実オブジェクトを2分以内でリライティングする際に、最先端の拡散逆レンダリング手法と一致または性能を向上することを示した。
関連論文リスト
- IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - Neural LightRig: Unlocking Accurate Object Normal and Material Estimation with Multi-Light Diffusion [45.81230812844384]
本稿では,2次元拡散先行から補助的な多照光条件を活用することにより,本質的な推定を促進する新しいフレームワークを提案する。
我々は、U-Netバックボーンで大きなGバッファモデルを訓練し、表面の正常さや材料を正確に予測する。
論文 参考訳(メタデータ) (2024-12-12T18:58:09Z) - LumiNet: Latent Intrinsics Meets Diffusion Models for Indoor Scene Relighting [13.433775723052753]
ソースイメージとターゲットのライティングイメージが与えられた後、LumiNetはターゲットのライティングをキャプチャするソースシーンの依存バージョンを合成する。
LumiNetは2つの異なる画像から遅延表現を処理します。
論文 参考訳(メタデータ) (2024-11-29T18:59:11Z) - A Diffusion Approach to Radiance Field Relighting using Multi-Illumination Synthesis [6.883971329818549]
単一照度データを用いた照度場作成手法を提案する。
光方向条件付き多照度データセット上で,まず2次元拡散モデルを微調整する。
単一照明下での合成および実マルチビューデータについて結果を示す。
論文 参考訳(メタデータ) (2024-09-13T16:07:25Z) - Factored-NeuS: Reconstructing Surfaces, Illumination, and Materials of Possibly Glossy Objects [58.25772313290338]
提案する多視点画像からシーンの表面, 材料, 照明を復元する手法を開発した。
追加のデータは必要ないし、光沢のあるオブジェクトや明るい照明も扱える。
論文 参考訳(メタデータ) (2023-05-29T07:44:19Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。